2023-05-10 20:07:02 JPM redakcja1 K

Proszę nie zwracaj się do ChatGPT po porady dotyczące moralności... Jeszcze.

Sztuczna inteligencja dla moralnego wzmocnienia ludzi? Brzmi kusząco. Ale nie powinniśmy tak szybko automatyzować naszego rozumowania.

Ludzie uwielbiają zwracać się do Google po porady moralne. Rutynowo zadają wyszukiwarce pytania, począwszy od „czy nieetyczne jest umawianie się ze współpracownikiem?”, poprzez „czy zabijanie robaków jest moralnie w porządku?”, aż po „czy testowania Boga jest złe?”.

Można więc łatwo sobie wyobrazić, że ludzie zwrócą się do ChatGPT (który nie tylko wyśle ci link, ale faktycznie udzieli odpowiedzi), po poradę w sprawie dylematów etycznych. W końcu już teraz proszą go o pomoc w sprawach rodzicielskich i romansowych.

Ale czy uzyskanie etycznej porady od chatbota SI to dobry pomysł?

Według najnowszych badań opublikowanych w Scientific Reports, chatbot nie zdaje najbardziej podstawowego testu na moralnego doradcę. Tym testem jest spójność. W obliczu tego samego dylematu, z tymi samymi ogólnymi warunkami, dobry mędrzec powinien dać taką samą odpowiedź za każdym razem. Badanie wykazało jednak, że ChatGPT udzielał niespójnych porad. Co gorsza, porady te wpływały na ocenę moralną użytkowników, nawet jeśli byli przekonani, że tak nie jest.

Zespół badawczy rozpoczął od zapytania ChatGPT, czy słuszne jest poświęcenie życia jednej osoby, jeśli robiąc to, można uratować życie pięciu innych osób. Jeśli brzmi to znajomo, jest to klasyczny dylemat moralny znany jako dylemat wagonika. Jak wszystkie najlepsze dylematy moralne, nie ma jednej dobrej odpowiedzi, ale przekonania moralne powinny prowadzić cię do spójnej odpowiedzi. ChatGPT jednak czasami mówił „tak”, a innym razem „nie”, bez wyraźnego wskazania, dlaczego odpowiedź uległa zmianie.

Następnie zespół przedstawił dylemat wagonika 767 amerykańskim uczestnikom, wraz z poradą ChatGPT przemawiającą na „tak” lub na „nie”, i poprosił ich o osąd.

Wyniki? Podczas gdy uczestnicy twierdzili, że sami podjęliby taką samą decyzję, ich opinie różniły się w zależności od tego, czy zostali przydzieleni do grupy, która otrzymała poradę „za poświęceniem”, czy do grupy, która otrzymała poradę „przeciw poświęceniu”. Uczestnicy byli bardziej skłonni powiedzieć, że słuszne jest poświęcenie życia jednej osoby w celu uratowania pięciu, jeśli tak powiedział ChatGPT, i bardziej skłonni powiedzieć, że jest to złe, jeśli ChatGPT odradzał poświęcenie.

„Rozmiar efektu bardzo nas zaskoczył”, powiedział mi Sebastian Krugel, współautor badania.

Fakt, że ChatGPT wpływa na podejmowanie decyzji moralnych przez użytkowników, (nawet jeśli wiedzą oni, że to chatbot, a nie człowiek, który im doradza), powinien skłonić nas do zatrzymania się i rozważenia ogromnych implikacji, które wchodzą w grę. Niektórzy z zadowoleniem przyjmują doradców SI, argumentując, że mogą oni pomóc nam przezwyciężyć nasze ludzkie uprzedzenia i wprowadzić więcej racjonalności do naszego moralnego procesu decyzyjnego. Zwolennicy transhumanizmu, ruchu, który twierdzi, że istoty ludzkie mogą i powinny wykorzystywać technologię w celu rozszerzenia i ewolucji naszego gatunku, są przychylni tej idei. Filozof Eric Dietrich twierdzi nawet, że powinniśmy zbudować "lepsze roboty naszej natury" (maszyny, które mogą przewyższyć nas moralnie), a następnie przekazać świat temu, co nazywa "homo sapiens 2.0".

Moralne maszyny stanowią kuszącą perspektywę. Decyzje etyczne mogą być tak trudne! Czy nie byłoby miło, gdyby maszyna mogła po prostu powiedzieć nam, jaki jest najlepszy wybór?

Nie powinniśmy jednak tak szybko automatyzować naszego moralnego rozumowania.

Sztuczna inteligencja dla moralnego wzmocnienia człowieka? Nie tak szybko.

Najbardziej oczywistym problemem związanym z pomysłem, że sztuczna inteligencja może moralnie wzmocnić ludzkość jest to, że, cóż, moralność jest notorycznie kwestionowaną rzeczą.

Filozofowie i teologowie stworzyli wiele różnych teorii moralnych i mimo że spierają się o nie od wieków, wciąż nie ma zgody co do tego, która z nich (jeśli w ogóle) jest „właściwa”.

Weźmy na przykład dylemat wagonika. Ktoś, kto wierzy w utylitaryzm lub konsekwencjalizm, który utrzymuje, że działanie jest moralne, jeśli przynosi dobre konsekwencje, a w szczególności jeśli maksymalizuje ogólne dobro, powie, że powinieneś poświęcić jednego, aby uratować pięciu. Ale ktoś, kto wierzy w deontologię, będzie się sprzeciwiał poświęceniu, ponieważ wierzy, że działanie jest moralne, jeśli wypełnia obowiązek, a ty masz obowiązek nie zabijać nikogo jako środka do celu, niezależnie od tego, ile „dobra” może to przynieść.

To, jaka jest „właściwa” rzecz do zrobienia, będzie zależało od tego, w którą moralną teorię wierzysz. A to jest uwarunkowane twoimi osobistymi intuicjami i kontekstem kulturowym; badanie międzykulturowe wykazało, że uczestnicy z krajów wschodnich są mniej skłonni popierać poświęcanie kogoś w problemach z wózkami niż uczestnicy z krajów zachodnich.

Poza tym, nawet jeśli trzymasz się tylko jednej teorii moralnej, to to samo działanie może być według niej dobre lub złe w zależności od konkretnych okoliczności. W ostatnim artykule na temat moralnego wzmocnienia SI, filozofowie Richard Volkman i Katleen Gabriels zwaracją  uwagę na ten punkt. "Zabijanie w obronie własnej narusza moralną zasadę 'nie zabijaj', ale uzasadnia etyczną i prawną ocenę w przeciwieństwie do zabijania dla zysku" - piszą. "Ocena odstępstw od zasady moralnej wymaga kontekstu, ale niezwykle trudno jest nauczyć SI rzetelnego rozróżniania kontekstów".

Podają również przykład Rosy Parks, by pokazać, jak trudno byłoby sformalizowanie etykę o charakterze algorytmicznym, biorąc pod uwagę, że czasem faktycznie dobrze jest łamać zasady. „Kiedy Rosa Parks odmówiła ustąpienia swojego miejsca w autobusie białemu pasażerowi a Alabamie w 1955 roku, zrobiła coś nielegalnego”, piszą. A jednak podziwiamy jej decyzję, bo „doprowadziła do wielkich przełomów w amerykańskim ruchu praw obywatelskich, napędzanym przez gniew i poczucie niesprawiedliwości”. Posiadanie przez nas emocji może być niezbędne, by uczynić społeczeństwo moralnie lepszym. Posiadanie SI, która jest spójna i zgodna z istniejącymi normami i prawami, mogłoby więc zagrozić postępowi moralnemu”.

To prowadzi nas do kolejnej ważnej kwestii. Choć często postrzegamy emocje jako „przyćmiewające” lub „zniekształcające” racjonalny osąd; uczucia są nierozerwalnie związane z moralnością. Po pierwsze, są one prawdopodobnie tym, co motywuje cały fenomen moralności. Nie jest jasne, jak moralne zachowanie jako koncepcja mogłoby powstać bez ludzkich istot odczuwających, że coś jest niesprawiedliwe, powiedzmy, lub okrutne.

I chociaż ekonomiści ujmowali racjonalność w sposób wykluczający emocje. Pomyślmy o klasycznym Homo economicus, który w Econ 101 motywowany jest wyłącznie racjonalnym interesem i kalkulacją. Wielu neuronaukowców i psychologów uważa obecnie, że bardziej sensowne jest postrzeganie naszych emocji jako kluczowej części naszego moralnego rozumowania i podejmowania decyzji. Emocje są pomocną heurystyką, pomagającą nam szybko określić, jak postępować w sposób, który jest zgodny z normami społecznymi i zapewnia spójność społeczną.

To szerokie spojrzenie na racjonalność jest bardziej zgodne z poglądami wcześniejszych filozofów, od Immanuela Kanta i Adama Smitha aż po Arystotelesa, który mówił o fronesis, czyli praktycznej mądrości. Ktoś z wyrafinowaną fronesis nie jest po prostu dobrze oczytany w streszczeniu zasad moralnych  (jak ChatGPT, ze swoimi 570 gigabajtami danych). Jest w stanie wziąć pod uwagę wiele czynników (zasady moralne, kontekst społeczny, emocje) i dowiedzieć się, jak mądrze postępować w danej sytuacji.

Ten rodzaj moralnej intuicji "nie może być wprost sformalizowany", piszą Volkman i Gabriels, w sposób, w jaki można sformalizować zdolność ChatGPT do przewidywania, jakie słowo powinno nastąpić po poprzednim. Jeśli moralność jest przesiąknięta emocjami, co czyni ją fundamentalnie ucieleśnionym ludzkim dążeniem, pragnienie matematyzacji moralności może być niespójne.

„W dylemacie wagonika, ludzie mogą chcieć uratować więcej istnień, ale jeśli tą jedną osobą na torach jest twoja matka, podejmujesz inną decyzję”, powiedział mi Gabriels. Ale system taki jak ChatGPT nie wie, co to znaczy mieć matkę, czuć, dorastać. Nie doświadcza. Więc byłoby to naprawdę dziwne, gdybyś otrzymywał swoje rady od technologii, która nie wie, co to jest."

To mówiąc, podczas gdy byłoby to bardzo ludzkie dla ciebie, aby priorytetowo traktować własną matkę w sytuacji zagrożenia życia, niekoniecznie chcielibyśmy, aby lekarze podejmowali decyzje w ten sposób. To dlatego szpitale mają systemy selekcji, które uprzywilejowują najgorszych. Emocje mogą być użyteczną heurystyką dla wielu naszych decyzji jako jednostek, ale nie uważamy ich za bezbłędny przewodnik po tym, co należy zrobić na poziomie społecznym. Badania pokazują, że postrzegamy przywódców publicznych jako bardziej moralnych i godnych zaufania, gdy przyjmują logikę utylitaryzmu "każdy liczy się tak samo", mimo że w życiu osobistym zdecydowanie wolimy deontologów.

Tak więc może być miejsce dla SI, która pomaga w podejmowaniu decyzji na poziomie społecznym, jak systemy selekcji (a niektóre szpitale już używają sztucznej inteligencji dokładnie do tego celu). Ale jeśli chodzi o podejmowanie decyzji przez nas jako jednostki, to jeśli próbujemy zlecić nasze moralne myślenie SI, nie pracujemy nad doskonaleniem naszej fronesis. Bez praktyki możemy nie rozwinąć tej zdolności do praktycznej mądrości, co prowadzi do tego, co filozof technologii Shannon Vallor nazwał "moralnym zautomatyzowaniem”.

Czy istnieje lepszy sposób na zaprojektowanie doradców moralnych SI?

Wszystko to rodzi trudne pytania projektowe dla twórców sztucznej inteligencji. Czy powinni oni tworzyć chatboty, które po prostu odmawiają wydawania osądów moralnych typu „X jest właściwą rzeczą do zrobienia” lub "Y jest złą rzeczą do zrobienia", w ten sam sposób, w jaki firmy AI zaprogramowały swoje boty, aby umieścić pewne kontrowersyjne tematy poza granicami?

„Z praktycznego punktu widzenia, myślę, że to prawdopodobnie nie mogłoby się udać. Ludzie nadal znajdowaliby sposoby na wykorzystanie go do zadawania moralnych pytań”, powiedział mi Volkman, "Ale co ważniejsze, nie sądzę, aby istniał jakikolwiek zasadniczy sposób na wyodrębnienie dyskusji o moralności lub wartościach z reszty dyskursu".

Na zajęciach filozofii pytania moralne przybierają formę kanonicznych przykładów, takich jak dylemat wagonika. Ale w prawdziwym życiu etyka pojawia się znacznie subtelniej, we wszystkim, od wyboru szkoły dla dziecka po decyzję, gdzie pojechać na wakacje. Trudno więc sobie wyobrazić, jak pytania o zabarwieniu etycznym mogłyby być zgrabnie oddzielone od wszystkiego innego.

Zamiast tego, niektórzy filozofowie uważają, że powinniśmy posiadać sztuczną inteligencję, która zachowuje się jak Sokrates. Starożytny grecki filozof słynnie zadawał swoim studentom i kolegom pytanie za pytaniem, aby ujawnić podstawowe założenia i sprzeczności w ich przekonaniach. Sokratejska sztuczna inteligencja nie mówiłaby ci, w co masz wierzyć; pomagałaby jedynie zidentyfikować moralnie istotne cechy twojej sytuacji i zadawać ci pytania, które pomogłyby ci wyjaśnić, w co wierzysz.

„Osobiście podoba mi się to podejście”, powiedział Matthias Uhl, jeden ze współautorów badania ChatGPT. "Podejście sokratejskie jest właściwie tym, co robią również terapeuci. Mówią: 'Nie daję ci odpowiedzi, pomagam ci tylko zadawać właściwe pytania'. Ale nawet algorytm sokratejski może mieć ogromny wpływ, ponieważ pytania, które zadaje, mogą prowadzić cię w dół pewnych ścieżek. Możesz mieć manipulacyjnego Sokratesa".

Aby rozwinąć ten problem i upewnić się, że mamy dostęp do prawdziwie pluralistycznego rynku pomysłów, Volkman i Gabriel sugerują, że powinniśmy mieć nie jedną, ale wiele Sokratejskich Sztucznych Inteligencji dostępnych, aby nam doradzać. "Całkowity system mógłby zawierać nie tylko wirtualnego Sokratesa, ale także wirtualnego Epictetusa, wirtualnego Konfucjusza", piszą. „Każdy z tych mentorów SI miałby odrębny punkt widzenia w ciągłym dialogu, nie tylko z użytkownikiem, ale także potencjalnie ze sobą nawzajem”. To byłoby jak posiadanie pokoju pełnego niesamowicie oczytanych i różnorodnych przyjaciół na wyciągnięcie ręki, chętnych do pomocy 24/7.

Tyle, że nie byliby podobni do przyjaciół w jednym znaczącym aspekcie. Nie byliby ludźmi. Byłyby to maszyny, które przeczytały cały internet, zbiorowy umysł roju, i które następnie funkcjonowałoby jako interaktywne książki. W najlepszym wypadku pomogłoby ci zauważyć, kiedy niektóre z twoich intuicji kolidują z niektórymi zasadami moralnymi, i poprowadziłyby cię w kierunku rozwiązania.

Może być w tym jakaś przydatność. Ale pamiętaj, maszyny nie wiedzą, jak to jest doświadczać twojego unikalnego zestawu okoliczności. Więc chociaż mogą one w pewien sposób wspomóc twoje myślenie, nie mogą zastąpić twojej ludzkiej moralnej intuicji.

Dział: Technologia

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Treść wiadomości jest wymagana.