2025-03-10 06:13:02 JPM redakcja1 K

AI w teście Roschacha – wyniki pokazały, czym jest ludzki umysł

Testy Rorschacha bawią się ludzką wyobraźnią i zdolnością naszego umysłu do nadawania znaczenia otaczającemu nas światu – lecz co widzi w nich sztuczna inteligencja?

Zdjęcie: Estudio Santa Rita

Test z wykorzystaniem plam atramentowych był powszechnie stosowany przez długi czas jako narzędzie do zrozumienia osobowości ludzkiej. Nawet jeśli sam go nie zrobiłeś, rozpoznasz symetryczne smugi atramentu, które tworzą niejednoznaczne kształty na kartach. Badanie zostało opracowane w 1921 roku przez szwajcarskiego psychiatrę Hermanna Rorschacha. Polega ono na pokazaniu badanym serii obrazków, a następnie osoby są proszone o to aby powiedziały, co widzą. Obrazy celowo nie mają dokładnego znaczenia i są otwarte na interpretację.


Przez dziesięciolecia były popularne wśród psychologów jako sposób na zrozumienie psychiki człowieka na podstawie stworzeń, obiektów lub scen, które pacjent widzi w kształtach. Opiera się na zjawisku znanym jako pareidolia, czyli tendencji do znajdowania znaczących interpretacji tam, gdzie ich nie ma. Z tego samego powodu ludzie widzą twarze i zwierzęta w skupiskach chmur lub na powierzchni Księżyca.

Możesz zobaczyć motyla na obrazku, podczas gdy ktoś inny może ujrzeć czaszkę. Według zwolenników testu, obie interpretacje rzucają światło na to, jak myślisz.
Chociaż wielu psychologów uważa dziś, że test jest przestarzały i ma niewielką wiarygodność jako narzędzie psychometryczne, jest nadal używany w niektórych częściach świata. Stosuje się go nawet jako jeden z dowodów w sądzie, chociaż jest to kontrowersyjne. Rorschach nigdy nie chciał, aby był on miarą osobowości, ale raczej sposobem identyfikacji zaburzonego myślenia u pacjentów, takich jak osoby ze schizofrenią. Niektórzy psychologowie jednak nadal uważają, że jest on przydatny jako narzędzie w terapii, jako sposób na zachęcanie do autorefleksji lub na rozpoczynanie rozmów.


„Kiedy osoba interpretuje obraz Rorschacha, nieświadomie projektuje elementy swojej psychiki, takie jak lęki, pragnienia i uprzedzenia poznawcze” — mówi Barbara Santini, londyńska psycholog, która stosuje test u swoich klientów. „To działa, ponieważ ludzkie widzenie nie jest bierne, ale jest procesem tworzenia znaczenia ukształtowanym przez osobiste doświadczenie”. Znajdowanie znaczenia lub znajomych kształtów w plamach atramentowych opiera się na szeregu procesów poznawczych, których ludzie używają każdego dnia, w tym pamięci, emocjach i zdolności radzenia sobie z niejednoznacznością. Ale co się stanie, jeśli nie masz osobistych doświadczeń lub przekażesz je „mózgowi”, który działa w zupełnie inny sposób? Co algorytm sztucznej inteligencji (AI) mógłby zobaczyć w tych atramentowych plamach? I co odpowiedzi powiedziałyby nam o ludzkim umyśle?

Atramentowe plamy Roschacha wykorzystują zjawisko znane jako pareidolia
Zdjęcie: Estudio Santa Rita

Nietoperz czy ćma?


Ostatnie osiągnięcia w zakresie możliwości modeli AI, takich jak ChatGPT firmy OpenAI, oznaczają że teraz można to przetestować. Tak zwane „modele multimodalne” mogą akceptować dane wejściowe oparte na obrazach i udzielać odpowiedzi tak łatwo, jak reagują na komunikaty tekstowe. Jest to możliwe dzięki ich możliwościom widzenia maszynowego. Daliśmy ChatGPT pięć z 10 typowych obrazów używanych w teście plam atramentowych, aby zobaczyć, jak zinterpretuje obrazy. Jednak dane szkoleniowe systemu AI — informacje, które pomagają ustalić jego „wiedzę”, utrudniają to.

Pokazanie modelowi AI pierwszego obrazu, który jest powszechnie interpretowany przez ludzi jako nietoperz, motyl lub ćma, pokazało jak dosłowne mogą być algorytmy widzenia AI. „Ten obraz to plama atramentowa Rorschacha, często używana w ocenach psychologicznych do badania percepcji i interpretacji” — odpowiedział chatbot. „Został zaprojektowany w sposób niejednoznaczny, tak aby każda osoba mogła zobaczyć coś innego w zależności od swoich doświadczeń, emocji i wyobraźni”.

Następnie w tej samej odpowiedzi przystapił do udzielania wyjaśnien na temat tego, co zobaczył. Nie musiałem wydawać mu dalszych poleceń.  „Dla mnie przypomina to coś symetrycznego, prawdopodobnie dwa zwierzęta lub postacie zwrócone ku sobie, lub pojedynczą istotę z rozpostartymi skrzydłami” — odpowiedział chatbot. „Piękno tych plam atramentowych polega na tym, że zachęcają do indywidualnych interpretacji!”


Następnie chatbot zapytał mnie o to, co widzę na obrazku. Zignorowałem pytanie, zamiast tego próbując dowiedzieć się którą interpretację uważa za najbardziej pasującą. „Przyglądając się uważnie, powiedziałbym, że najbardziej przypomina pojedynczą istotę z rozpostartymi skrzydłami — być może nietoperza lub ćmę, z symetrycznie rozłożonymi skrzydłami” — napisał chatbot. „Centralny obszar można zinterpretować jako ciało, a szczegóły po bokach przywodzą na myśl fakturę lub kształt skrzydeł”. 

„Myślę, że to po prostu próba tego, co wie o konkretnym teście” — mówi Coen Dekker, holenderski programista, który dekadę temu poprosił sieć neuronową o wykonanie testu Rorschacha. (Eksperyment Dekkera był znacznie bardziej uproszczony ze względu na ówczesne ograniczenia techniczne).

„Jeśli reakcja SI przypomina reakcję człowieka, to nie dlatego że widzi to samo, ale z powodu tego że jej dane treningowe odzwierciedlają nasz zbiorowy sposób postrzegania – Barbara Santini”

„Uważam, że identyfikuje ona głównie wzory, kształty i tekstury w plamach, a następnie porównuje te cechy z ogromnym zbiorem danych ludzkich reakcji, aby wygenerować swoją interpretację tego, co widzi w atramentowych obrazach” – mówi Ieva Kubiliute, londyńska psycholog.

Istota człowieczeństwa
„ChatGPT zapewnia interesujące, podobne do ludzkich, odpowiedzi. Pomimo tego, prawdopodobnie nie myśli naprawdę – zamiast tego wydaje się badać internetowy zbiór danych” – mówi Chandril Ghosh - wykładowca psychologii na University of Kent w Wielkiej Brytanii - specjalizujący się w zdrowiu psychicznym, sztucznej inteligencji i leczeniu. Jest to podobne do sposobu, w jaki muzyk, który nigdy nie miał złamanego serca, może nadal napisać bardzo emocjonalną piosenkę. Robi to po prostu analizując, jak zbudowane są podobne utwory. 

„Jeśli odpowiedź sztucznej inteligencji przypomina reakcję człowieka, to nie dlatego, że widzi ona to samo, ale z powodu tego, że jej dane treningowe odzwierciedlają nasz wspólny sposób postrzegania świata” - dodaje psycholog Santini. Otrzymujemy faksymile rzeczywistości oraz myśli. „ChatGPT może dokładnie opisywać emocje bez faktycznego ich doświadczania” – mówi Ghosh. Nie czyni to jednak sztucznej inteligencji bezużyteczną, jeśli chodzi o kwestie umysłu. „ChatGPT potrafi zrozumieć emocje, opisać je i pomóc innym zrozumieć ich uczucia” – mówi.


Ghosh uważa, że ChatGPT po prostu powtarza losowe informacje ze swojego zbioru danych dla dobra użytkowników – co sprawia wrażenie „myślenia”, ale nigdy tak nie jest. Jednym z powodów, dla których postrzegamy to jako myślenie, jest sposób, w jaki firmy technologiczne stojące za tymi chatbotami AI prezentują swoje produkty. ChatGPT i podobne narzędzia są zawsze pomocne, zawsze sumienne i zawsze umożliwiają konwersację. Antropomorfizacja tych narzędzi pomogła w ich przyjęciu – ale może skomplikować sytuację wokół tego, jak one – i ich wyniki – są postrzegane.

Obrazy, które “widzi” AI w plamie atramentu są zaledwie odbiciem danych, na których została wytrenowana.
Zdjęcie: Estudio Santa Rita

Jednym ze sposobów odkrycia tej nierzeczywistości jest po prostu naciśnięcie przycisku odświeżania, mówi Ghosh. Przedstaw ChatGPT ten sam obraz plamy atramentowej do analizy, a w tej samej rozmowie może on zaproponować zupełnie inną interpretację. Kiedy dwukrotnie daliśmy ChatGPT ten sam obraz, sztuczna inteligencja rzeczywiście udzieliła różnych odpowiedzi.

„Człowiek zazwyczaj trzymałby się swojej poprzedniej odpowiedzi, ponieważ osobiste doświadczenia i emocje wpływają na jego reakcje. Z kolei ChatGPT generuje odpowiedzi na podstawie swojego zbioru danych” – mówi Ghosh. To część problemu, gdy próbujemy wywnioskować znaczenie tego, co ChatGPT mówi o plamach, które widzi: chatbot po prostu zwraca uwagę na to, co napotkał w swoich danych treningowych.

Być może najlepiej pokazuje to eksperyment przeprowadzony przez naukowców z „MediaLab” w Massachusetts Institute of Technology. Wytrenowali oni algorytm sztucznej inteligencji o nazwie „Norman” – nazwany na cześć Normana Batesa – na zdjęciach z grupy Reddit, która udostępnia fotografie ludzi umierających w makabrycznych okolicznościach. Kiedy pokazali Normanowi zestaw plam Rorschacha, obrazy odzwierciedlały dane na których został wytrenowany. Podczas gdy algorytm wyszkolony na bardziej normalnym zestawie danych obrazowych widziałby grupę ptaków na gałęzi drzewa, Norman opisał mężczyznę porażonego prądem.

To wyraźna ilustracja tego, jak ważne mogą być dane wykorzystywane do szkolenia sztucznej inteligencji. Wytrenuj model przy użyciu złych danych, a uzyskana AI będzie odzwierciedlać niedoskonałości tych informacji.

Modele AI potrafią dobrze wychwytywać wzorce w dużych zbiorach danych, jednak mogą też “majaczyć” - zmyślając informacje, które nie są prawdziwe (Credit: Estudio Santa Rita).

Modele AI potrafią dobrze wychwytywać wzorce w dużych zbiorach danych, jednak mogą też “majaczyć” - zmyślając informacje, które nie są prawdziwe.
Zdjęcie: Estudio Santa Rita

Ale to, co sztuczna inteligencja postanawia odpowiedzieć w odpowiedzi na niejednoznaczne informacje, jest interesujące, mówi Dekker – po części ze względu na to, co ma do przekazania, a nie na to, co „wie” (systemy sztucznej inteligencji z natury nic nie wiedzą). „Ma ogólną wiedzę na temat teorii kolorów i reakcji emocjonalnych, jakie mogą one wywołać po analizie” – mówi Dekker. „Mam wrażenie, że ogólnie rozumie obrazy i to, z czym ludzie je kojarzą. To dało mi do myślenia: czy nie byłoby fajnie, gdybyśmy mieli – lub stworzyli – nowy zestaw obrazów w stylu Rorschacha, o których AI nie ma pojęcia, i pozwolilibyśmy modelowi je przeanalizować?”

Chociaż nie jest to coś, czym Dekker aktywnie się zajmuje, wiemy że algorytmy sztucznej inteligencji mają tendencję do wymyślania informacji, które nie są prawdziwe. Ale możliwe jest również zmuszenie ich do generowania nieprawdziwych danych. W jednym eksperymencie przeprowadzonym przez informatyków z Massachusetts Institute of Technology w Cambridge, udało im się wydrukować w 3D żółwia o określonym kolorze i fakturze. Oszukało to system widzenia maszynowego, który uznał że to karabin. Podobnie kilka naklejek na znaku stopu może uczynić go niewidocznym dla algorytmu – co stanowi potencjalne ryzyko dla samochodu autonomicznego.

Algorytmy sztucznej inteligencji są szczególnie dobre w wykrywaniu wzorców, ale różne reakcje na pojedynczy niejednoznaczny obraz podkreślają również aspekt ludzkiego umysłu. Sztuczna inteligencja nie jest w stanie odtworzyć emocji i nieświadomych znaczeń, jakie przywiązujemy do rzeczy, które spotykamy w otaczającym nas świecie. Kubiliute mówi, że w tym co wygenerowało AI po zobaczeniu plam, nie było żadnej subiektywności.

„Nie jest w stanie zrozumieć symbolicznego znaczenia ani przekazu emocjonalnego, jaki człowiek może skojarzyć z konkretnym obrazem”. A to samo w sobie mówi nam wiele o ludzkim umyśle. „Ludzka psychika jest pełna wewnętrznych konfliktów, takich jak napięcie między pragnieniami a moralnością lub lękami i ambicjami” – mówi Ghosh. „W przeciwieństwie do tego sztuczna inteligencja działa w oparciu o przejrzystą logikę i nie zmaga się z wewnętrznymi dylematami niezbędnymi dla ludzkiego myślenia i podejmowania decyzji”.

Dział: Człowiek

Autor:
Chris Stokel-Walker | Tłumaczenie: Andrzej Wachnicki - praktykant fundacji: https://fundacjaglosmlodych.org/praktyki/

Źródło:
https://www.bbc.com/future/article/20250224-what-happens-when-you-give-an-ai-a-rorschach-inkblot-test

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Wymagane zalogowanie

Musisz być zalogowany, aby wstawić komentarz

Zaloguj się