Badacze Google odkryli, że wzrosła liczba dezinformacji dotyczących obrazów generowanych przez sztuczną inteligencję
„Nagłe rozpowszechnienie treści generowanych przez sztuczną inteligencję w rzeczywistości zweryfikowanych już twierdzeń sugeruje szybko zmieniający się krajobraz dezinformacji”– wynika z artykułu opublikowanego w internecie w tym miesiącu.
Zdjęcie: NBC/Getty Images
Według badaczy z Google i kilku organizacji weryfikujących autentyczność w mediach, fałszywe obrazy generowane przez sztuczną inteligencję rozprzestrzeniły się tak szybko, że obecnie są prawie tak powszechne, jak obrazy zmanipulowane za pomocą tekstu lub tradycyjnych narzędzi do edycji, takich jak Photoshop. Badania wskazują, jak szybko technologia została przyjęta przez osoby chcące rozpowszechniać fałszywe informacje. Ostrzegli jednak, że sztuczna inteligencja to wciąż tylko jeden ze sposobów wykorzystywania zdjęć do wprowadzania opinii publicznej w błąd - najczęstszym w dalszym ciągu są prawdziwe obrazy wyrwane z kontekstu. W artykule opublikowanym w Internecie w tym miesiącu, ale jeszcze nie zweryfikowanym, badacze prześledzili tendencje w zakresie dezinformacji, analizując prawie 136 tys. weryfikacji faktów od 1995 r., przy czym większość z nich została opublikowana po 2016 r. i zakończyła się w listopadzie 2023 r. Ustalili, że sztuczna inteligencja stanowi za bardzo niewielką dezinformację opartą na obrazach aż do wiosny 2023 r., mniej więcej wtedy, gdy fałszywe zdjęcia papieża Franciszka w puchowym płaszczu obiegły cały internet. „Nagłe rozpowszechnienie treści generowanych przez sztuczną inteligencję w rzeczywistości zweryfikowanych już twierdzeń sugeruje szybko zmieniający się krajobraz dezinformacji”– wynika z artykułu opublikowanego w internecie w tym miesiącu. Główni badacze i przedstawiciele Google nie przesłali komentarzy na czas umożliwiający publikację. Alexios Mantzarlis, który jako pierwszy zasygnalizował i zrecenzował najnowsze badania w swoim biuletynie Faked Up, powiedział, że demokratyzacja generatywnych narzędzi sztucznej inteligencji ułatwiła niemal każdemu rozpowszechnianie fałszywych informacji w Internecie. „Przechodzimy przez fale postępu technologicznego, które szokują nas pod względem zdolności do manipulowania i zmieniania rzeczywistości, i właśnie przez to teraz przechodzimy”– powiedział Mantzarlis, dyrektor Security, Trust, and Safety Initiative w Cornell Tech, Cornell Kampus absolwentów uniwersytetu w Nowym Jorku. Pytanie brzmi: jak szybko możemy się dostosować? A następnie jakie zabezpieczenia możemy wprowadzić, aby uniknąć ich krzywdy?” Przechodzimy przez fale postępu technologicznego, które szokują nas pod względem zdolności do manipulowania i zmieniania rzeczywistości, i teraz przez to przechodzimy - Alexios Mantzarlis, dyrektor Ds. inicjatywy bezpieczeństwa i zaufania w Cornell Tech. Badacze odkryli, że około 80% zweryfikowanych twierdzeń zawierających dezinformację dotyczy mediów takich jak obrazy i wideo, przy czym od 2022 r. wideo coraz częściej dominuje w tych twierdzeniach. Nawet w przypadku sztucznej inteligencji badanie wykazało, że prawdziwe obrazy w połączeniu z fałszywymi twierdzeniami na temat tego, co przedstawiają lub co sugerują, nadal rozprzestrzeniają się bez potrzeby stosowania sztucznej inteligencji ani nawet edycji zdjęć.
„Chociaż obrazy wygenerowane przez sztuczną inteligencję nie spowodowały, że manipulacje treścią wyprzedziły manipulacje kontekstem, gromadzenie danych zakończyliśmy pod koniec 2023 r. i od tego czasu mogło się to zmienić”– napisali. „Niezależnie od tego obrazy generatywnej sztucznej inteligencji stanowią obecnie znaczną część wszystkich obrazów związanych z dezinformacją”. Tekst jest również składnikiem około 80% wszystkich dezinformacji opartych na obrazach, najczęściej widocznych na zrzutach ekranu. „Z zaskoczeniem zauważyliśmy, że takie przypadki stanowią większość manipulacji kontekstem” – stwierdzono w artykule. „Te obrazy można łatwo udostępniać na platformach mediów społecznościowych, ponieważ nie wymagają, aby osoba je udostępniająca sama powielała fałszywe twierdzenie kontekstowe: są osadzone w obrazie”. Cayce Myers, profesor ds. public relations i dyrektor studiów podyplomowych w Szkole Komunikacji Virginia Tech, twierdzi, że manipulacje kontekstem mogą być jeszcze trudniejsze do wykrycia niż obrazy wygenerowane przez sztuczną inteligencję, ponieważ już wyglądają autentycznie. „W tym sensie jest to znacznie bardziej podstępny problem” – powiedział Myers, który przed udzieleniem wywiadu zapoznał się z najnowszymi ustaleniami. „Ponieważ jeśli masz, powiedzmy, obraz wygenerowany całkowicie przez sztuczną inteligencję, na który ktoś może spojrzeć i powiedzieć: «To nie wygląda całkiem dobrze», to zupełnie co innego niż zobaczenie rzeczywistego obrazu z podpisem w sposób fałszywego przedstawienia treści obrazu”. Jednak w miarę postępu technologii nawet dezinformacja oparta na sztucznej inteligencji staje się coraz trudniejsza do wykrycia. Myers stwierdził, że tradycyjne cechy charakterystyczne obrazu generowanego przez sztuczną inteligencję – nieprawidłowości, takie jak zniekształcone dłonie, zniekształcony tekst lub pies z pięcioma nogami – „niezwykle” zmalały, odkąd narzędzia te po raz pierwszy stały się powszechne. Na początku tego miesiąca, podczas gali Met, dwa wygenerowane zdjęcia Katy Perry (której nie było na tym wydarzeniu) na pierwszy rzut oka wyglądały tak realistycznie, że nawet jej mama błędnie pomyślała, że piosenkarka jest obecna. I chociaż w badaniu stwierdzono, że modele sztucznej inteligencji nie są zazwyczaj szkolone do generowania obrazów takich jak zrzuty ekranu i memy, możliwe, że szybko nauczą się niezawodnie tworzyć tego typu obrazy, gdy będą pojawiać się nowe wersje zaawansowanych modeli językowych. Mantzarlis powiedział, że aby wiarygodnie odróżniać dezinformację w miarę jak narzędzia sztucznej inteligencji stają się coraz bardziej wyrafinowane, ludzie będą musieli nauczyć się kwestionować źródło lub dystrybutora treści, a nie same elementy wizualne.
„Sama treść nie będzie już dla nas wystarczająca, aby ocenić prawdziwość”– stwierdził Mantzarlis. „Myślę, że potrzebujesz pełnego kontekstu: kto ci to udostępnił? Jak to udostępniono? Skąd wiesz, że to byli oni?” Jednak w badaniu zauważono, że poleganie wyłącznie na twierdzeniach zweryfikowanych z faktami nie obejmuje całego zakresu dezinformacji, ponieważ często to obrazy, które trafiają do internetu, zostają sprawdzone pod kątem faktów. Oparła się także wyłącznie na twierdzeniach zawierających dezinformację przedstawionych w języku angielskim. Pomija to wiele mniej oglądanych lub nieanglojęzycznych fragmentów dezinformacji, które krążą bez kontroli. Mimo to Mantzarlis stwierdził, że jego zdaniem badanie odzwierciedla „dobrą próbkę” przypadków dezinformacji w języku angielskim w Internecie, szczególnie tych, które dotarły do wystarczająco dużej liczby odbiorców, aby weryfikatorzy faktów mogli je zauważyć. Zdaniem Myersa większym ograniczeniem wpływającym na wszelkie badania nad dezinformacją – zwłaszcza w dobie sztucznej inteligencji – będzie szybko zmieniający się charakter samej dezinformacji. „Problemem osób, które zastanawiają się, jak sobie poradzić z dezinformacją, jest to, że jest to ewoluująca rzeczywistość technologiczna”– powiedział Myers. „A uchwycenie tego jest trudne, ponieważ to, czego będziesz się uczyć w maju 2024 r., może już być zupełnie inną rzeczywistością w czerwcu 2024 r.”
I chociaż w badaniu stwierdzono, że modele sztucznej inteligencji nie są zazwyczaj szkolone do generowania obrazów takich jak zrzuty ekranu i memy, możliwe, że szybko nauczą się niezawodnie tworzyć tego typu obrazy, gdy będą pojawiać się nowe wersje zaawansowanych modeli językowych. Mantzarlis powiedział, że aby wiarygodnie odróżniać dezinformację, w miarę jak narzędzia sztucznej inteligencji stają się coraz bardziej wyrafinowane, ludzie będą musieli nauczyć się kwestionować źródło lub dystrybutora treści, a nie same elementy wizualne. „Sama treść nie będzie już dla nas wystarczająca, aby ocenić prawdziwość wiarygodności – stwierdził Mantzarlis. „Myślę, że potrzebujesz pełnego kontekstu: kto ci to udostępnił? Jak to udostępniono? Skąd wiesz, że to byli oni? Jednak w badaniu zauważono, że poleganie wyłącznie na twierdzeniach zweryfikowanych z faktami nie obejmuje całego zakresu dezinformacji, ponieważ często to obrazy, które trafiają do Internetu, zostają sprawdzone pod kątem faktów. Oparła się także wyłącznie na twierdzeniach zawierających dezinformację przedstawionych w języku angielskim. Pomija to wiele mniej oglądanych lub nieanglojęzycznych fragmentów dezinformacji, które krążą bez kontroli. Mimo to Mantzarlis stwierdził, że jego zdaniem badanie odzwierciedla „dobrą próbkę” przypadków dezinformacji w języku angielskim w Internecie, szczególnie tych, które dotarły do wystarczająco dużej liczby odbiorców, aby weryfikatorzy faktów mogli je zauważyć. Zdaniem Myersa większym ograniczeniem wpływającym na wszelkie badania nad dezinformacją – zwłaszcza w dobie sztucznej inteligencji – będzie szybko zmieniający się charakter samej dezinformacji. „Problemem osób, które zastanawiają się, jak sobie poradzić z dezinformacją, jest to, że jest to ewoluująca rzeczywistość technologiczna” – powiedział Myers. „A uchwycenie tego jest trudne, ponieważ to, czego będziesz się uczyć w maju 2024 r., może już być zupełnie inną rzeczywistością w czerwcu 2024 roku”.
Dział: Technologia
Autor:
Angela Yang | Tłumaczenie: Maciej Płóciennikowski