2023-10-12 17:24:42 JPM redakcja1 K

Efekt doliny niesamowitości - czym jest i dlaczego go odczuwamy

Nawet w przypadkach, w których nie można zobaczyć sztucznej inteligencji na własne oczy, programy takie jak ChatGPT imitujące ludzkie zachowania potrafią wzbudzić niepokój. Naukowcy mają teorie, dlaczego możemy tak się czuć.

Zdjęcie ekranu twarzy wygenerowanych przez Ai. Zdjęcie: John Koetsier

Co to znaczy być człowiekiem? Kiedy to pytanie zadaje sobie robot, może się to wydać nam niepokojące - a kiedy sztuczne istoty zaczynają zachowywać się lub wyglądać trochę zbyt ludzko, możesz doświadczyć zjawiska „doliny niesamowitości”.

Nowy film Garetha Edwardsa Twórca stawia to fundamentalne pytanie o człowieczeństwo. W filmie spełniają się nasze najgorsze obawy dotyczące sztucznej inteligencji. Chociaż jej błyskawiczny rozwój może wydawać się stosunkowo nowym zjawiskiem, obawy przed nią mogą być zakorzenione w podstawowych ludzkich instynktach przetrwania.

Koncepcja doliny niesamowitości istnieje już od pół wieku, jednak naukowcy wciąż debatują nad tym, dlaczego sfabrykowane ludzkie wizerunki powodują u nas tak duży dyskomfort. Teorie tyczą się między innymi naszego instynktu unikania chorób oraz postrzegania zagrożenia dla człowieczeństwa. 

Tymczasem robotycy i badacze sztucznej inteligencji ciężko pracują nad pokonaniem „doliny niesamowitości”, mając nadzieję na wprowadzenie robotów społecznych do życia codziennego. W przyszłości roboty i sztuczna inteligencja mogą obsługiwać stoliki, opiekować się osobami starszymi, uczyć dzieci czytać lub udawać pacjentów w szkole medycznej. To, czy i w jaki sposób robotom uda się obejść efekt niesamowitości, może mieć ogromny wpływ na to, jak będziemy z nimi współdziałać w przyszłości.

Pojęcie doliny niesamowitości zostało po raz pierwszy użyte przez robotyka Masahiro Mori w 1970 roku. W swoim eseju Mori zaproponował, że roboty stają się bardziej sympatyczne, gdy zyskują nieco cech podobnych do ludzkich (jak WALL-E). Kiedy te jednak stają się zbyt podobne do ludzi, zaczynają wydawać się niepokojące. Następnie, gdy stają się prawie nie do odróżnienia od ludzi, znów stają się sympatyczne.

Teorie Moriego opierały się na jego osobistych doświadczeniach, ale były bardzo wpływowe, mówi robotyk Karl MacDorman, prodziekan w Indiana University School of Informatics and Computing i tłumacz eseju Moriego z 1970 roku. Mimo to poparcie naukowe dla idei doliny niesamowitości Moriego było mieszane i należy ją traktować bardziej jako uproszczoną analizę niż twardą regułę, mówi MacDorman. 

Przez lata badacze znajdowali efekt „doliny niesamowitości” niemal w każdym aspekcie życia. Istnieje „dolina niesamowitości” związana z ludzkimi i syntetycznymi głosami, rozpoznaniem zwierząt-robotów, a nawet powiązana z rozpoznawaniem prawdziwych i sztucznie wygenerowanych zdjęć domów.

W niedawnym badaniu MacDorman i psycholog poznawczy Alex Diel znaleźli duże poparcie dla teorii zwanej „przetwarzaniem konfiguracyjnym”, która zakłada, że odczuwanie „doliny niesamowitości” jest spowodowane naszą wrażliwością na położenie i rozmiar ludzkich rysów twarzy. „Niedopasowanie percepcyjne” - inna powiązana teoria, mówi, że czujemy się niekomfortowo, gdy dostrzegamy niedopasowane cechy, takie jak realistyczne oczy, ale nierealistyczna skóra. Ta szczególna niespójność jest częstym problemem w przypadku obrazów generowanych przez sztuczną inteligencję. 

Z ewolucyjnego punktu widzenia, wrażliwość ta może wywoływać instynkt unikania potencjalnego zagrożenia. Diel wyjaśnia, że możemy postrzegać niedoskonałości ludzkiej repliki jako znak, że może ona być fizycznie chora lub jest potencjalnym źródłem choroby zakaźnej - a to wywołuje w nas reakcję obrzydzenia. Teoria doboru partnerskiego jest podobna: zakłada, awersja do robotów podobnych do ludzi ma miejsce, ponieważ nasz instynkt podpowiada nam, że przez ich niedoskonałości nie byliby dobrymi partnerami. Inna teoria głosi, że sztuczne postacie niepokoją nas, ponieważ wydają się nienaturalnie ożywać, jak zombie, i sprawiają, iż myślimy o własnej śmierci.

Niektóre wyjaśnienia „doliny niesamowitości” obejmują ideę, że przypisujemy sztucznym ludziom umysł lub cechy podobne do ludzkich, co może powodować dysonans poznawczy i dezorientację, ponieważ nie wiemy, czy powinniśmy traktować ich jak ludzi, czy też ufać, że będą się tak zachowywać. 

Niedawno pojawiły się dowody sugerujące, że sztuczne istoty są dla nas niepokojące, ponieważ podważają nasze przekonania o wyjątkowości ludzkich zdolności, takich jak rozumowanie, logika i emocje. W niedawnym badaniu uczestnicy zgłosili, że interakcje z androidami podobnymi do ludzi sprawiły, że zaczęli kwestionować, co to znaczy być człowiekiem. Dawid Ratajzyc, profesor na Uniwersytecie Adama Mickiewicza, który przeprowadził badanie, mówi, że być może "roboty mogą powiedzieć nam więcej o nas samych niż o robotach".

Niesławne wideo z 1988 roku pokazuje animację komputerową dziecka bawiącego się zabawkami. MacDorman twierdzi, że jest to doskonały przykład doliny niesamowitości, wyjaśniając, że uczucie, jakie odczuwa widz "jest bardzo trzewne, automatyczne i niekontrolowane". MacDorman odróżnia tę reakcję od tej, którą można uzyskać podczas rozmowy z chatbotem, która wymaga myślenia i rozwagi. "Nie sądzę, by była to teoria doliny niesamowitości zdefiniowana przez Mitsuhiro Moriego".

Ratajzyc postrzega je jednak jako to samo. W rzeczywistości uważa on, że każdy przejaw nieprawdziwości, od robota po chatbota, może wywoływać w nas zjawisko „doliny niesamowitości”. Wskazuje on na niedawne badanie, które wykazało, że zwykłe chatboty tekstowe wydają się mniej przerażające niż te z wirtualnym awatarem przypominającym człowieka, który "mówi" do użytkownika - a im bardziej awatar wydaje się podobny do człowieka, tym bardziej odpychający staje się chatbot.

Istnieją pewne dowody z badań obrazowania mózgu, które ukazują, że te dwa rodzaje interakcji - automatyczne, sensoryczne oraz te wymagające myślenia i rozważania - wykorzystują różne części mózgu i że możemy używać bardziej analitycznych części naszego umysłu w interakcjach społecznych z robotami niż z ludźmi. 

Nadine, robot społeczny, potrafi się przywitać i zapamiętać wcześniejsze rozmowy. Została zaprezentowana światu prawie siedem lat temu i pracuje w firmie ubezpieczeniowej w Singapurze. Ponadto od lutego tego roku z ChatGPT skorzystało 100 milionów osób. Czy w miarę jak będziemy coraz częściej wchodzić w interakcje z androidami i sztuczną inteligencją, a ich realizm będzie się poprawiał, staną się one mniej “niesamowite”?

„Trudno powiedzieć”, mówi Bilge Mutlu, profesor informatyki na University of Wisconsin Madison. Podczas gdy naukowcy spodziewają się, że przy wielokrotnej ekspozycji zjawisko „doliny niesamowitości” może się zmniejszyć, Mutlu mówi, że dla niego uczucie to tylko się nasiliło. 

MacDorman uważa również, że rolę gra tutaj także różnica między pokoleniami. Wspomina, że w 2020 roku, kiedy prezentował Geminoid H1, androida stworzonego przez robotyka Hiroshi Ishiguro, do pokoju wszedł starszy mężczyzna i zapytał, gdzie jest android - podczas gdy ten stał tuż obok niego.

Mori zaproponował proste rozwiązanie na uniknięcie „doliny niesamowitości”: nie budować robotów przypominających ludzi. Jednak wielu współczesnych robotyków, takich jak MacDorman, nie jest usatysfakcjonowanych tym rozwiązaniem. Próbują sprawić, by roboty wyglądały i zachowywały się bardziej ludzko, zarówno po to, by zadawać fundamentalne pytania na temat ludzi, jak i po to, by roboty mogły płynnie integrować się z ludzkim życiem. 

Wiąże się to jednak z pytaniami natury etycznej: jak bardzo ludzki powinien być robot niebędący człowiekiem? Czy ludzie powinni wiedzieć, że wchodzą w interakcję ze sztuczną inteligencją i ile informacji o nas powinna ona na nasz temat posiadać?

Mutlu uważa, że nie jest konieczne, by wszystkie roboty wyglądały i zachowywały się dokładnie jak ludzie. Powinniśmy dokładnie przemyśleć, do jakich celów używamy robotów i odpowiednio je zaprojektować - mówi.

“Nie musimy też kazać im podejmować za nas ważne decyzje, które możemy podjąć sami”, dodaje. Już teraz sztuczna inteligencja jest wykorzystywana do decydowania o roszczeniach ubezpieczeniowych i o tym, czy wsadzać ludzi do więzienia. Ma nadzieję, że robotycy i badacze sztucznej inteligencji skupią się bardziej na budowaniu pomocników, niż tworów daleko wyprzedzających nasze własne umiejętności.

Dział: Informatyka

Autor:
Natalia Mesa | Tłumaczenie: Aleksy Balerstet

Źródło:
https://www.nationalgeographic.com/science/article/ai-uncanny-valley

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Wymagane zalogowanie

Musisz być zalogowany, aby wstawić komentarz

Zaloguj się

INNE WIADOMOŚCI


NAJCZĘŚCIEJ CZYTANE