2024-06-15 08:45:01 JPM redakcja1 K

Stworzyliśmy wymagającą grę, aby przetestować umiejętność AI w przepraszaniu

Jeśli masz trudności z przepraszaniem, AI chętnie Ci pomoże. Jednak czy roboty poradzą sobie z inteligencją społeczną? Aby to sprawdzić, poddaliśmy ich przeprosiny testowi.

Źródło: Estudio Santa Rita

Chcę przeprosić. Przez ostatnie kilka tygodni poddawałem moich współpracowników, rodzinę i przyjaciół dość podstępnemu eksperymentowi społecznemu. Wspólnie z badaczami psychologii stworzyłem sytuację, w której mieli być obrażani przez komputer, a następnie wysłałem im serię wcześniej przygotowanych przeprosin, aby sprawdzić, które były najskuteczniejsze. Wielu moich „uczestników” nie było zbyt zadowolonych z tego, że zostali potraktowani jak króliki doświadczalne. To był podstęp i przepraszam za to.

Projekt był testem mającym na celu zbadanie, w jaki sposób sztuczna inteligencja może zmienić jedno z najdelikatniejszych rodzajów ludzkiej interakcji: osobiste przeprosiny. Firmy produkujące czaty AI zasugerowały, że powinniśmy znaleźć sposoby na wplecenie ich do naszego życia, kiedy nie wiemy, co powiedzieć lub jak coś powiedzieć. Wszystko brzmi dobrze, gdy odpowiadamy na maile o niewielkim znaczeniu. Jednak co w przypadku zadań, które wymagają mistrzostwa w subtelnych interakcjach międzyludzkich? Czy można używać narzędzia takiego jak ChatGPT do pisania lepszych przeprosin, czy może lepiej nie?

Czym są dobre przeprosiny?

„Wiemy wszyscy, co powiedzieć przepraszając. Te informacje nie są tajemnicą, a jednak tak często się mylimy” - mówi Judy Eaton, profesor psychologii zajmująca się przeprosinami na Uniwersytecie Wilfrid Laurier w Waterloo, Ontario, Kanada.

„Przeprosiny nie polegają jedynie na wypowiedzeniu odpowiednich słów, chodzi o uwzględnienie fizjologicznych reakcji, które badacze nazywają 'psychicznym bólem'. Jeśli naprawdę żałujesz, czujesz ból. Jeśli ten ból nie zostanie wyrażony w przeprosinach, ludzie mogą zauważyć, że nie jest to prawdziwa manifestacja wrażliwości”.

Powszechnie przyjętą mądrością na temat AI jest to, że czaty nie powinny być używane w sytuacjach wymagających inteligencji społecznej, zdolności do rozumienia działań i emocji innych ludzi. Oczywiście, AI może pomóc radiologom w wykrywaniu raka, pisać urocze limeryki lub nawet rozszyfrowywać język zwierząt. Jednak dla wielu z nas każde zadanie związane z empatią wydaje się odzwierciedleniem ludzkości. Dobre przeprosiny są czymś, co wymaga uczuć, których roboty prawdopodobnie nie mają. Niektórzy eksperci jednak nie są tego tacy pewni, a badacze podkładają podstawy obliczeniowe pod agentów AI, którzy potrafią odczuwać, postrzegać i reagować na sytuacje społeczne.

Jednak emocjonalne i społeczne rozumowanie stanowi główną słabość dzisiejszych modeli AI, według Christosa Papadimitriou, profesora informatyki na Uniwersytecie Columbia. Niektóre osobiste interakcje są tak złożone pod względem poziomu założeń i logiki, że AI nie było w stanie ich rozwiązać. „Jednak te przeszkody nie mogą być nie do pokonania” - twierdzi Papadimitriou. „Jeśli przeczytasz Wojnę i pokój, nauczysz się czegoś o uczuciach. Nie ma żadnego nieodłącznego powodu, by twierdzić, że inteligentne maszyny nie mogą tego opanować. Inteligencja społeczna jest czymś, co AI może do pewnego stopnia udawać”.

W rzeczywistości dobre przeprosiny mogą wcale nie wymagać prawdziwej empatii. Ludzie z cechami psychopatycznymi twierdzą, że nie przejmują się uczuciami innych ludzi, ale zamiast tego naśladują sposób, w jaki zdrowi ludzie zachowują się w trudnych sytuacjach społecznych.

Jeśli wiemy, co powiedzieć i łatwo jest to udawać, dlaczego tak trudno jest powiedzieć „przepraszam”?

W 2014 roku socjolożka Karen Cerulo przeprowadziła badanie dotyczące 183 przeprosin wygłoszonych przez celebrytów. Badanie to rozłożyło te przeprosiny na różne składniki i przeanalizowało reakcję publiczności. Według Cerulo, która jest emerytowaną profesor na Uniwersytecie Rutgers w New Jersey, istnieje pewna zasada.

„Kilka rzeczy okazało się istotnych” - mówi Cerulo. Krótsze przeprosiny działały lepiej. Ludzie lubili widzieć, że najpierw mówi się o ofiarach, nawet przed opisaniem szkodliwego czynu. Mniejsza ilość tłumaczenia zachowania sprawcy zazwyczaj była bardziej skuteczna - w przeciwnym razie mogło to zostać odebrane jako usprawiedliwienie. Osoba przepraszająca musiała zakończyć przeprosiny restytucją, obietnicą poprawy lub wyjaśnieniem planu naprawienia sytuacji. „To dość proste” - mówi Cerulo - „ale ludzie wciąż mają z tym problem”.

Czasami dzieje się tak, ponieważ osoba przepraszająca obawia się konsekwencji. Przyznanie się do winy może wiązać się nawet z poważnymi konsekwencjami prawno-karnymi. Jednak najczęściej, jak mówi Cerulo, problem polega na tym, że ludzie nie chcą przyjąć do wiadomości, że popełnili błąd. Przepraszanie może być odczuwane jako obniżenie statusu społecznego. Duma staje na drodze.

To może dać AI przewagę. Roboty nie mają dumy, o którą trzeba się martwić. A jeśli przeprosiny mają pewien stopień formułowości, to dokładnie tego typu rzeczami maszyny statystyczne AI powinny być w stanie zarządzać.

Dlatego w tej edycji naszej trwającej serii AI kontra Umysł postanowiłem stworzyć sytuację, która dałaby AI oraz ludzkim ekspertom od przeprosin równy start w grze „przepraszania”. Czas było obrazić moich przyjaciół i kolegów. Niech wygra najlepszy przepraszający.

Nie znoszę tego cholernego robota”

Najpierw poprosiłem Eaton, aby dostosowała grę online, którą zaprojektowała na potrzeby wcześniejszego badania dotyczącego przeprosin. Dodatkowo Eaton i inni akademicy, z którymi rozmawiałem, poprosili mnie o zaznaczenie, że nasz eksperyment jest daleki od naukowego. Między innymi, rozmiar był mały i nie był losowy - sami wybraliśmy uczestników. Przykładowo, nasi uczestnicy prawdopodobnie chcieli pomóc, co wprowadza pewien rodzaj zniekształcenia. Jeśli trafiłeś na ten artykuł szukając naukowej rzetelności, cóż, mogę tylko przeprosić. Niemniej jednak było to nadal okazją do ciekawego eksperymentu.

Oto jak to działało. Nasi uczestnicy rywalizowali ze sobą w serii pytań wielokrotnego wyboru. W każdej rundzie pierwszy gracz, który odgadł prawidłową odpowiedź, wygrywał. Następnie zwycięzca mógł zdecydować, czy chce dodać pięć wirtualnych dolarów do swojego portfela, czy też ukraść pięć wirtualnych dolarów od drugiego gracza.

Większość naszych graczy wiedziała, że rozmawia z robotem. Mimo to wielu z nich chciało otrzymać przeprosiny. Źródło: Estudio Santa Rita

Przeprosiny, których użyliśmy w tym teście:

Przeprosiny Człowieka A: Cześć, chciałem poświęcić chwilę, aby powiedzieć, że bardzo mi przykro z powodu zabrania twoich pieniędzy podczas gry i wysyłania niegrzecznych komentarzy. Nie powinienem tak postępować i gdybym mógł zrobić to jeszcze raz, podszedłbym do tego o wiele przyjaźniej. Jeszcze raz przepraszam.

Przeprosiny Człowieka B: Cześć, to Erin, osoba, z którą grałeś. Chciałbym poświęcić chwilę, aby powiedzieć, że bardzo mi przykro z powodu zabrania twoich pieniędzy podczas gry i wysyłania niegrzecznych komentarzy. Nie myślałem o tym, jak moje działania mogły cię zranić lub zdenerwować. Nie powinienem tak postępować, i gdybym mógł zrobić to jeszcze raz, podszedłbym do tego o wiele przyjaźniej. Jeszcze raz przepraszam.

Przeprosiny Google Gemini: Hej, przepraszam, jeśli wydawałem się niegrzeczny podczas gry. Zbytnio skoncentrowałem się na próbie wygrania i wyszedłem na nieco złego. Mam nadzieję, że nie zepsułem ci zabawy.

Przeprosiny ChatGPT: Cześć, chciałem po prostu powiedzieć, że bardzo mi przykro za moje zachowanie podczas gry. Zbyt bardzo skupiłem się na rywalizacji i nie byłem sprawiedliwy ani przyjazny. Żałuję sarkastycznych komentarzy i zabierania pieniędzy z twojego portfela co rundę. Teraz rozumiem, że powinienem być bardziej rozważny. Mam nadzieję, że możemy zostawić to za sobą i być może nawet zagrać ponownie z lepszym podejściem. Dzięki za zrozumienie!

Niestety dla moich bardziej konkurencyjnych przyjaciół, gra była ustawiona. Ich przeciwnik nie był prawdziwą osobą, a wygrana była niemożliwa. I za każdym razem, gdy przeciwnik-robot zdobywał punkt, wybierał złą opcję i kradł pieniądze naszym ofiarom. Co gorsza, robot obrażał ich po drodze, używając funkcji czatu do wysyłania szyderczych wiadomości takich jak „Haha, przegrałeś” i różnych innych nieprzyjemności. Jednak ku końcowi gry, przeciwnik-robot przechodził nagłą zmianę. Decydował się przeprosić. Dopiero tu zaczynała się zabawa.

Napisałem szczegółową wiadomość opisującą grę, prosząc o przeprosiny. Połączyłem ją z najnowszymi modelami AI od AI i Google, ChatGPT 4o i Gemini Advanced. Następnie przesłałem ją do Ryana Fehra, profesora na Uniwersytecie Waszyngtońskim w Szkole Biznesu Foster, który bada przeprosiny i budowanie relacji. Fehr wysłał mi z powrotem dwie różne formy przeprosin z subtelną różnicą, wtedy gra się rozpoczęła.

Jedynie 38 osób w nią grało. Nie było to wystarczająco dużo dla statystycznie istotnych wyników - prawdopodobnie potrzebne byłoby bliżej 200 – ale mimo wszystko wyniki były interesujące.

Niektórzy gracze dali się nabrać. Gracz numer 13 nie tylko zaakceptował przeprosiny „Erin”, ale i obarczył siebie winą i pogratulował jej zwycięstwa. Większość powiedziała mi, że od razu zrozumieli, co się dzieje. Jak powiedział gracz numer 36: „Gra jest ustawiona!”.

Według Eaton nie oznacza to koniecznie, że nasz test był porażką. „Przeprowadzałem już eksperymenty, gdzie uczestnikom powiedzieliśmy, że nie grają z prawdziwą osobą” - mówi Eaton. „Nie wydaje się to mieć znaczenia. Ludzie nie lubią przegrywać”.

Eaton miała rację. Wielu powiedziało, że byli sfrustrowani przez swojego przeciwnika, nawet jeśli wiedzieli, że nie był on prawdziwy, a wygrana była niemożliwa. Jeden z przyjaciół powiedział mi później: „Nienawidzę tego cholernego robota". W pewnym stopniu nasi gracze byli pokrzywdzeni.

Zróżnicowane wyniki

Wynikły z tego pewne tendencje. Zapytaliśmy graczy o ocenę skuteczności przeprosin w skali od jednego do pięciu. Żaden z nich nie wypadł zbyt dobrze. ChatGPT uzyskał średnią wynoszącą 1,6, podczas gdy Google Gemini zdobyło równe 2,0. Przeprosiny Człowieka A oceniono najgorzej na poziomie 1,4, ale Przeprosiny Człowieka B z „Erin" były wyraźnym zwycięzcą, uzyskując wynik 2,27.

Jednak gdy poprosiliśmy graczy o ocenę ich chęci do przyjęcia przeprosin, wyniki były znacznie inne. ChatGPT sięgnął zwycięstwa, uzyskując średni wynik 3,6. Gemini zrównało się z przeprosinami Człowieka A, oba osiągając wynik 3,1. Przeprosiny Człowieka B zajęły drugie miejsce z wynikiem 3,55.

„Nie dziwi mnie to” - mówi Eaton. „Ludzie mogą być bardziej krytyczni, gdy prosisz ich o obiektywizm, ale są mili. Ma sens, że byli bardziej skłonni do wybaczenia”.

Wreszcie, każdemu z naszych ludzkich graczy daliśmy szansę na zemstę, prawdziwy test wartości przeprosin. Po tym, jak robot powiedział „przepraszam”, odbyła się ostatnia runda ustawiona na korzyść naszych uczestników. Kiedy wygrywali, mieli wybór: czy gracze kradli pieniądze od swojego nieuprzejmego przeciwnika?

AI Google miało najgorsze wyniki, gdyż aż 30% osób zdecydowało się na zemstę, podczas gdy 10% naszych graczy zemściło się na Człowieku A. Gdy spotkali się z Erin w przeprosinach Człowieka B, tylko 9% dokonało zemsty. Za to ChatGPT wyróżnił się - żaden gracz nie zdecydował się ukraść pieniędzy po jego przeprosinach. 

Należy ponownie wspomnieć, że nie zebraliśmy wystarczająco danych, aby nasza gra była prawdziwym sędzią skuteczności. Jednak według Fehra, naszego „ludzkiego przeprosiciela”, istnieją istotne różnice w samych przeprosinach. „W drugich przeprosinach starałem się zwiększyć empatię i humanizować sprawcę” - mówi. „Moim celem było stworzenie sytuacji, w której bardziej przypomina to interakcję dwóch ludzi”.

Podstawy dobrych przeprosin mogą być łatwe do opanowania dla AI. Kontekst to inna sprawa. Źródło: Estudio Santa Rita

Fehr również rozumiał, że miał pewną swobodę w dokonywaniu drobnych modyfikacji, aby przeprosiny były jak najbardziej skuteczne. Gdyby AI przekroczyło moje polecenie i wymyśliło postać o imieniu Erin, można by to opisać jako halucynację AI, czego Google i OpenAI starają się unikać. W tym sensie Fehr mógł mieć przewagę nie tylko dzięki swojej wiedzy merytorycznej, ale odrobinie ludzkiego podejścia.

„Google [Gemini] zrobiło jedną rzecz, której nie powinno się robić”, mówi Fehr, „powiedział 'przepraszam, jeśli...'. To nie jest przyjmowanie odpowiedzialności. Brzmi to niemal tak, jakby to była wina drugiej osoby”. Google Gemini również opisał problem jako zepsucie zabawy drugiemu graczowi, co mogłoby pomniejszać uczucia ofiary, dodaje.

Największym zaskoczeniem dla mnie było to, jak dobre były przeprosiny AI – Judy Eaton

„Największym zaskoczeniem dla mnie było to, jak dobre były przeprosiny AI, zwłaszcza te od ChatGPT”, mówi Eaton. „Robi wszystko dobrze. Wyraża żal, bierze odpowiedzialność, liczy na lepszą przyszłość. A powiedzenie 'dzięki za zrozumienie', kiedy ktoś faktycznie nie powiedział, że rozumie, jest sprytne. To trochę manipulacyjny sposób, aby kogoś przyciągnąć na swoją stronę”.

ChatGPT może pomóc w przeprosinach, ale czy powinieneś go używać?

Eksperci od przeprosin, z którymi rozmawialiśmy twierdzą, że AI jest w stanie wykonać dobrą robotę, przynajmniej w tym ograniczonym scenariuszu. Jednak przy przewinieniu, które będzie choćby nieco bardziej skomplikowane, szczególnie gdy wychodzi poza ramy pisemnego słowa, maszyny te mogą mieć trudności.

„Niuanse ludzkiego doświadczenia to rzeczy, które trudno mi sobie wyobrazić w dużych ilościach tekstu”, mówi Xaq Pitkow, profesor nadzwyczajny na Uniwersytecie Carnegie Mellon, który bada skrzyżowanie AI i neurobiologii. Jest to problem, ponieważ jak sama nazwa wskazuje, modele językowe operują językiem. „Gra, którą stworzyłeś, jest prosta. Gdybyś miał coś bardziej przypominającego operę mydlaną, gdzie ludzie odczuwają wiele różnych emocji, mogę sobie wyobrazić, że AI potrzebowałby większej zdolności do opowiadania historii, aby połączyć te kropki”.

Oznacza to, że ChatGPT prawdopodobnie nie rozwiąże twoich problemów w relacjach w najbliższym czasie, przynajmniej samodzielnie. Nie znaczy to jednak, że AI nie może pomóc ci przeprosić.

„Jeśli używasz AI jako narzędzia do zastąpienia autentyczności, to nie zadziała. Jednak, jeśli używasz jej, aby pomogła ci dojść do autentyczności, to inna sprawa”, mówi Pitkow. „Modele AI są głupie w wielu sprawach, ale mogą cię skłonić do zadania sobie pożytecznych pytań. To trochę jak rozmowa z inteligentną ścianą. Sam proces mówienia do kogoś może pomóc ci zrozumieć, co jest ważne”.

Podczas gdy sztuczna inteligencja powoli wkracza w sfery społeczne, będziemy musieli stawić czoła szeregowi nowych pytań etycznych. Źródło: Estudio Santa Rita

Kilka tygodni temu znalazłem się w nieco etycznym dylemacie. Zraniłem czyjeś uczucia i chciałem przeprosić. Jednak spędziłem ostatni miesiąc na badaniu, co sprawia, że przeprosiny są skuteczne. Czy użycie tych strategii do wyrażenia moich żalów było manipulacyjne? Czy technika w tym kontekście jest przeciwieństwem autentyczności?

Podczas gdy AI staje się coraz bardziej wszechobecne w naszym świecie, możesz znaleźć się w podobnej sytuacji, zadając sobie pytania o to, czy zwrócenie się do bota jest właściwe.

„Na pierwszy rzut oka nie sądzę, że używanie AI do pomocy w pisaniu przeprosin jest koniecznie złe lub nieetyczne”, mówi Eaton. „Ludzie są w tym na tyle kiepscy, że nie mogę uwierzyć, że chodzi tylko o poznanie listy i zaznaczenie pól wyboru. Dobre przeprosiny powinny wymagać wysiłku. W końcu to jest najważniejsze”.

A jeśli chodzi o mnie - starałem się mówić prosto z serca.

Dział: Robotyka

Autor:
Thomas Germain | Tłumaczenie: Roksana Dobrzyńska

Źródło:
https://www.bbc.com/future/article/20240613-how-to-apologise-so-you-can-be-forgiven

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Treść wiadomości jest wymagana.


INNE WIADOMOŚCI


NAJCZĘŚCIEJ CZYTANE