2024-08-21 12:28:01 JPM redakcja1 K

Czy można uzależnić się emocjonalnie od głosu sztucznej inteligencji? OpenAI uważa, że tak

Raport potwierdził, że użytkownicy GPT-4o nawiązują nietypowe więzi z funkcją odpowiedzi głosowej, co według firmy jest podstawą do dalszych badań.

Oprogramowanie OpenAI GPT-4o posiada funkcję głosową, która pozwala użytkownikom prowadzić rozmowy ze sztuczną inteligencją. Firma wyraziła obawy dotyczące więzi, jakie niektórzy użytkownicy z nią nawiązali. Zdjęcie: Olga Pankova/Getty Images

W raporcie opublikowanym w tym tygodniu spółka OpenAI ujawniła, że brała pod uwagę możliwość uzależnienia emocjonalnego od nowego, podobnego do ludzkiego głosu, wykorzystywanego na popularnej stronie ze sztuczną inteligencją - ChatGPT.

Przypomina to serial „Czarne Lustro” z Netflixa czy film Ona autorstwa Spike’a Jonze’a.

Raport dotyczący środków bezpieczeństwa zastosowanych podczas tworzenia oprogramowania wykazał, że podczas wczesnych testów zaobserwowano, że użytkownicy używali słów, które wskazywały na nawiązanie więzi z programem, który prowadzi rozmowę poprzez odbieranie i reagowanie na polecenia głosowe, obrazy i filmy.

– Są to na przykład słowa używane między ludźmi, takie jak „To nasz ostatni dzień razem – wynika z raportu – Chociaż przypadki te wydają się łagodne, sygnalizują konieczność dalszych badań nad tym, jak może to objawiać się po dłuższym czasie".

Funkcję głosową zapowiedziano wiosną tego roku jako część najnowszego modelu aplikacji ChatGPT, znanego jako GPT-4o. Nowa wersja ChatGPT została wprowadzona w maju, a możliwość prowadzania rozmowy głosowej została udostępniona za opłatą w ubiegłym tygodniu. Szacuje się, że zostanie ona udostępniona wszystkim użytkownikom jesienią.

W raporcie szczegółowo omówiono szereg możliwości, ograniczeń i analiz bezpieczeństwa modelu, w tym zdolność do reagowania na sygnały dźwiękowe w ciągu około 232 milisekund, ze średnią 320 milisekund, co według firmy jest zbliżone do czasu reakcji na ludzką rozmowę.

Ryzyko antropomorfizacji, czyli przypisywania ludzkich zachowań i cech istotom niebędącym ludźmi, takim jak sztuczna inteligencja, jest zwiększone przez możliwości dźwiękowe GPT-4o, które pozwalają na naturalną rozmowę, zgodnie z raportem.

Stwierdzono również, że funkcja głosu podobnego do ludzkiego może zmniejszyć potrzebę interakcji międzyludzkich, co może być zaletą dla osób samotnych, ale może negatywnie wpłynąć na „zdrowe relacje".

Blase Ur, profesor informatyki na Uniwersytecie w Chicago, badający interakcje między człowiekiem a komputerem, po przeczytaniu raportu stwierdził, że jest jasne, że OpenAI ma powody, by czuć się komfortowo z tym, co robi, ale ma też powody do niepokoju. Dlatego nie jest pewien, czy obecne testy są „wystarczające", powiedział.

– Kiedy myślisz o takich rzeczach jak bezpieczeństwo samochodów i samolotów, istnieje duża ilość testów i weryfikacji oraz norm, na które my jako społeczeństwo i grupa ekspertów się zgadzamy – powiedział Ur w piątkowym wywiadzie telefonicznym – I pod wieloma względami OpenAI śpieszy się z wprowadzaniem tych rzeczy, które są świetne, ponieważ jesteśmy w wyścigu zbrojeń sztucznej inteligencji.

(Dziennik The New York Times pozwał OpenAI i Microsoft w grudniu, twierdząc, że naruszają prawa autorskie do treści wiadomości o sztucznej inteligencji).

Oprócz OpenAI, firmy takie jak Apple i Google intensywnie pracują nad rozwojem własnej sztucznej inteligencji. Ur stwierdził, że wydaje się, że obecne podejście do śledzenia zachowania modeli polega na szukaniu zagrożeń w trakcie korzystania, zamiast tworzenia ich z myślą o bezpieczeństwie.

– W pewnym stopniu, ze względu na to, że żyjemy po pandemii, wiele osób jest wrażliwych emocjonalnie – powiedział Ur, odnosząc się do przypadków manipulacji emocjonalnej z wykorzystaniem sztucznej inteligencji. – Teraz, gdy mamy to narzędzie, które na wiele sposobów może igrać z naszymi emocjami, nie jest to świadomy program, nie wie co robi, możemy znaleźć się w takich sytuacjach.

To nie pierwszy raz, kiedy funkcja głosowa OpenAI pojawia się w wiadomościach. Niedługo po premierze produktu w maju pojawiły się obawy, że funkcja ta może być zbyt realistyczna w szczególny sposób. Aktorka Scarlett Johansson, która użyczyła głosu sztucznej inteligencji w filmie Ona, powiedziała, że OpenAI użyło głosu, który brzmiał „podejrzanie podobnie” do jej własnego, pomimo odrzucenia przez nią oferty udzielenia na niego licencji. Następnie wynajęła prawnika i nalegała, aby OpenAI przestało używać głosu, który nazwała „Sky", co doprowadziło firmę do wstrzymania premiery produktu.

W filmie Ona główny bohater, grany przez aktora Joaquina Phoenixa, zakochuje się w sztucznej inteligencji, której głos podkłada Johansson, a następnie ma złamane serce, gdy okazuje się, że sztuczna inteligencja ma również relacje z innymi użytkownikami.

Wygląda na to, że raport OpenAI jest ekstremalnym przykładem życia naśladującego sztukę, a firma otwarcie przyznaje się do ryzyka, które może mieć wpływ na ludzi w prawdziwym świecie.

Firma oświadczyła, że dodatkowe badania „bardziej zróżnicowanych użytkowników o różnorodnych potrzebach związanych z modelem”, a także „niezależne badania akademickie i wewnętrzne” pomogą dokładniej zdefiniować potencjalne ryzyko.

Firma dodała: „Zamierzamy dalej badać uzależnienie emocjonalne i sposoby, gdzie integracja wielu funkcji naszego modelu i systemów dźwiękowych może wpływać na zachowanie”.

Dział: Technologia

Autor:
Gina Cherelus | Tłumaczenie: Klaudia Lorent – praktykantka fundacji: https://fundacjaglosmlodych.org/praktyki/

Źródło:
https://www.nytimes.com/2024/08/09/style/openai-chatgpt-voice.html

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Wymagane zalogowanie

Musisz być zalogowany, aby wstawić komentarz

Zaloguj się

INNE WIADOMOŚCI


NAJCZĘŚCIEJ CZYTANE