Jak treści generowane przez sztuczną inteligencję mogą osłabiać naszą zdolność do krytycznego myślenia
Treści generowane przez sztuczną inteligencję są coraz bardziej powszechne (do 2026 r. mogą stanowić nawet 90 procent wszystkich treści). Wiele z nich szerzy dezinformację, co budzi obawy o negatywny wpływ AI na społeczeństwo. Ostatnią deską ratunku jest pielęgnowanie umiejętności krytycznego myślenia, które pomoże nam zminimalizować ryzyko poddania się manipulacji.
Ciemna strona rozwoju sztucznej inteligencji
Raport Europolu z początku tego roku ostrzega, że „do 2026 aż 90 procent treści online może być sztucznie wygenerowanych” (w ten sposób odnosi się do „mediów generowanych lub manipulowanych przy użyciu sztucznej inteligencji”). Pozostaje jednak pytanie, w jakim stopniu wpłynie to na umiejętności krytycznego myślenia u ludzi i czy naprawdę ma to dla nas jakiekolwiek znaczenie.
Podczas gdy wiele zastosowań sztucznej inteligencji może wspierać rozwój i dobrobyt ludzi oraz zapewniać lepszą wydajność pracy, jest ona również wykorzystywana do generowania ogromnych ilości dezinformacji - zarówno pisanych, jak i opartych na obrazach lub plikach wideo - w celu zmylenia narracji, zmiany popularnej opinii, manipulowania rzeszami ludzi czy odwrócenia uwagi od istotnych wiadomości. Nie raz miało to już bezpośredni wpływ na ludzkość, począwszy od zamieszek z 6 stycznia, kończąc na opóźnieniach w korzystaniu z opieki zdrowotnej. Według badania opublikowanego przez Światową Organizację Zdrowia „wśród filmów na YouTube dotyczących pojawiających się chorób zakaźnych, od 20 do 30 procent zawiera niedokładne lub wprowadzające w błąd informacje”.
Sztuczna inteligencja jest najczęściej projektowana do działania poprzez kwestionowanie jej ludzkiego odpowiednika. Niektórzy z jej twórców pracują nad zminimalizowaniem możliwości wykorzystania jej w złych celach. Niestety wciąż jest ona zawodna, a kilka badań na platformach takich jak ChatGPT wykazało, że istnieją sposoby, by pokonać jej zabezpieczenia i ukierunkować ją wedle własnych upodobań. Wśród wielu z nas wywołuje to poważne obawy, a niektórzy eksperci ostrzegają, że zachowanie umiejętności krytycznego myślenia pozostaje najwyższym priorytetem, bo stanowi ono barierę ochronną dla naszych zdolności umysłowych.
Podatność na dezinformację - u kogo jest najwyższa i jak ją zmniejszyć?
Psychologowie z Uniwersytetu w Cambridge opracowali niedawno pierwszy, zweryfikowany „test podatności na dezinformację” (MIST), który podkreśla stopień, w jakim jednostka podatna jest na rozpoznanie fałszywych wiadomości. Młodsi Amerykanie (poniżej 45 roku życia) wypadli w nim gorzej od osób powyżej 45 roku życia, uzyskując 12 na 20 poprawnych wyników, w porównaniu do 15 na 20 w przypadku drugiej grupy. Było to częściowo skorelowane z ilością czasu spędzonego online, co wskazuje, że niezwykle istotny jest sposób spędzania wolnego czasu.
Jak ostrzega Raport Europolu: „Na co dzień ludzie ufają własnej percepcji, która mówi im, co jest prawdziwe, a co nie... Nagrania, obrazy i dźwięki są często traktowane jako prawdziwa relacja z danego wydarzenia. Ale co, jeśli to wszystko może być wygenerowane sztucznie, jeśli ma nam pokazać rzeczy, które nigdy nie miały miejsca, lub zmienić je w znaczący sposób?”
Według ankiety przeprowadzonej przez Forbes Advisor Survey, 76% konsumentów obawia się dezinformacji ze strony sztucznej inteligencji, a tylko 56% uważa, że potrafi ją rozpoznać. Tymczasem badanie przeprowadzone w Wielkiej Brytanii przez Public First określające postawy wobec sztucznej inteligencji, ukazuje, że podejście ludzi zależy od jej potencjalnego zastosowania. Okazuje się, że opinia publiczna zwykle popiera takie zastosowania, jak wczesne ostrzeganie przed interwencją medyczną lub wykrywanie oszustw w systemie opieki społecznej, ale nie jest zbyt przychylna wykorzystywaniu AI do podejmowania decyzji lub doradzania w sprawie wykrywania winy, w kontekście kryminalnym, jak i wojskowym.
Wiele obecnych narzędzi krytycznego myślenia zachęca nas do stosowania technik myślenia lateralnego, w których to aktywnie poszukujemy informacji w wielu różnych źródłach, lub technik myślenia inwersyjnego, gdzie aktywnie poszukujemy informacji sprzecznych z naszymi własnymi poglądami. Jak dotąd nie udało się jednak zmierzyć, jak skuteczne będą te narzędzia w krajobrazie treści w 90 procentach generowanych przez sztuczną inteligencję, które są masowo wdrażane i powielane na tysiącach stron internetowych.
Jak obronić się przed fałszywymi treściami wygenerowanymi przez AI?
Niezbędne będzie tutaj wyposażenie się w narzędzia, które nie polegają na krzyżowym sprawdzaniu informacji, takie jak:
-Upewnienie się, że rozumiemy statystyki. Oznacza to, że wiemy nie tylko o tym, co te statystyki mówią, ale też o tym, jakich informacji w nich brakuje.
-Identyfikacja bazy dowodowej. Czy wiadomo, na podstawie jakich źródeł opiera się treść, w jaki sposób zostały przeprowadzone wspominane w nich badania i czy są one wiarygodne?
-Zrozumienie kontekstu. Kluczowym narzędziem manipulacji jest podawanie informacji poza zamierzonym kontekstem. Należy sprawdzić, co zostało powiedziane w oryginalnym źródle, w jakim kontekście zostało to podane i jak mogło zostać zmienione.
-Wnioskowanie na podstawie wcześniejszych informacji. Czy podane informacje pasują do narracji, której można się po kimś/czymś spodziewać? Deepfakes są coraz częstszym problemem - jeśli widzimy więc naszą ulubioną osobowość telewizyjną wypowiadającą się na popularny temat, czy pasuje to do jej standardowego zachowania?
-Prośba o jasność i precyzję. Większa liczba szczegółów może pomóc w odkryciu, czy źródło informacji jest kompetentne i czy pochodzące z niego treści są wiarygodne.
-Pozostawanie sceptycznym, ale nie zbyt sceptycznym. Musimy kwestionować to, co nam się mówi, ale jak na ironię, jak podkreślono w badaniu MIST, oczekiwanie, że wszystko jest fałszywe, może utrudnić wykrycie rzeczywistej dezinformacji. Kluczowe jest zachowanie otwartego umysłu.
„Krytyczne myślenie ma kluczowe znaczenie dla zwalczania wszechobecnego wpływu dezinformacji w erze cyfrowej, zwłaszcza wśród młodszych pokoleń. Dezinformacja i przymusowa kontrola utrudniają nasze codzienne życie, umożliwiając wszystko, od radykalizacji politycznej i religijnej, przez przemoc domową, fałszywe wiadomości, po gaslighting. Powinniśmy stawić czoła tym wyzwaniom, ucząc ludzi krytycznego myślenia”. -Jim Atack, prezes The Open Minds Foundation.
Dział: Technologia
Autor:
The Open Minds Foundation | Tłumaczenie: Marlena Kaczmarska