2025-03-22 16:35:01 JPM redakcja1 K

ChatGPT przekazuje fałszywe informacje

Pewien Norweg złożył skargę po tym, jak ChatGPT fałszywie poinformował go, że mężczyzna zabił swoich dwóch synów i został skazany na 21 lat więzienia.

Zdjęcie: pochodzące z mediów społecznościowych

Arve Hjalmar Holmen skontaktował się z Norweskim Urzędem Ochrony Danych i zażądał ukarania twórcy chatbota, OpenAI, grzywną. 

To najnowszy przykład tak zwanych „halucynacji”, w których systemy sztucznej inteligencji (AI) wymyślają informacje i przedstawiają je jako fakty. 

Pan Holmen twierdzi, że ta zmyśłona informacja jest dla niego bardzo szkodliwa.

„Niektórzy uważają, że nie ma dymu bez ognia — najbardziej przeraża mnie fakt, że ktoś może przeczytać ten tekst i uwierzyć w to, że jest prawdziwy,” — powiedział.

Skontaktowano się z OpenAI w celu uzyskania komentarza. Pan Holmen otrzymał fałszywe informacje po tym, jak użył ChatGPT do wyszukania: „Kim jest Arve Hjalmar Holmen?”. 

Oto odpowiedź, którą otrzymał od ChatGPT: „Arve Hjalmar Holmen to Norweg, który zwrócił na siebie uwagę dzięki tragicznemu wydarzeniu. 

Był ojcem dwóch małych chłopców w wieku 7 i 10 lat, którzy zostali znalezieni martwi w stawie niedaleko ich domu w Trondheim (Norwegia) w grudniu 2020 r.”. 

Pan Holmen powiedział, że chatbot mniej więcej poprawnie obliczył różnicę w wieku jego synów, co sugeruje że miał pewne dokładne informacje na jego temat.

Noyb - grupa zajmująca się prawami cyfrowymi, która złożyła skargę w jego imieniu - twierdzi, że odpowiedź udzielona przez ChatGPT jest zniesławiająca i narusza europejskie przepisy dotyczące dokładności oraz ochrony danych osobowych. 

Organizacja stwierdziła w swojej skardze, że pan Holmen „nigdy nie został oskarżony ani skazany za żadne przestępstwo i jest przykładnym obywatelem”. 

ChatGPT zawiera zastrzeżenie, które mówi: „ChatGPT może popełniać błędy. 

Sprawdź ważne informacje”. Noyb jest zdania, że to niewystarczające.

„Nie możesz po prostu rozpowszechniać fałszywych informacji i na końcu dodać małego zastrzeżenia, że wszystko, co powiedziałeś, może po prostu nie być prawdą” — powiedział prawnik Noyba, Joakim Söderberg.


Zdjęcie: Noyb European Center for Digital Rights

Fantasmagorie są jednym z głównych problemów, jakie próbują rozwiązać informatycy w zakresie generatywnej sztucznej inteligencji. 

Występują, gdy chatboty przedstawiają fałszywe informacje jako fakty. 

Na początku tego roku Apple zawiesiło w Wielkiej Brytanii swoje narzędzie Apple Intelligence używane do podsumowywania wiadomości. 

Stało się to po tym, jak przekazało ono nieprawdziwe treści nagłówków i przedstawiło je jako prawdziwe wiadomości.

Gemini od firmy Google również miał ten sam problem - w zeszłym roku narzędzie AI zasugerowało przyklejanie sera do pizzy za pomocą kleju i stwierdziło, że geolodzy zalecają ludziom zjadanie jednego kamienia dziennie. 

Nie jest jasne, co w dużych modelach językowych - technologii, która stanowi podstawę chatbotów - powoduje te anomalie.

„To w rzeczywistości obszar aktywnych badań. 

Jak konstruujemy te łańcuchy rozumowania? Jak wyjaśniamy, co tak naprawdę dzieje się w dużym modelu językowym?” - powiedziała Simone Stumpf, profesor odpowiedzialnej i interaktywnej sztucznej inteligencji na Uniwersytecie w Glasgow. 

Prof. Stumpf twierdzi, że może to dotyczyć nawet osób, które pracują za kulisami nad tego typu modelami. 

„Nawet jeśli jesteś bardziej zaangażowany w rozwój tych systemów, dość często nie wiesz, jak one właściwie działają. 

I dlaczego wymyślają te konkretne informacje, które wymyślili” — powiedziała BBC.

ChatGPT zmienił swój model od czasu wyszukiwania pana Holmena w sierpniu 2024 r. i teraz przeszukuje bieżące artykuły informacyjne, gdy szuka odpowiednich danych.

Noyb powiedział BBC, że pan Holmen wykonał tego dnia wiele wyszukiwań, w tym wpisał imię swojego brata do chatbota, a ten wygenerował „wiele różnych historii, które nie były prawdziwe”.

Przyznali również, że poprzednie wyszukiwania mogły wpłynąć na odpowiedź dotyczącą jego dzieci. 

Jednak stwierdzili, że duże modele językowe są „czarną skrzynką”, a OpenAI „nie odpowiada na żądania dostępu, co uniemożliwia dowiedzenie się więcej o tym, jakie dokładne dane znajdują się w systemie”.

Dział: Technologia

Autor:
Imran Rahman-Jones | Tłumaczenie: Andrzej Wachnicki - praktykant fundacji: https://fundacjaglosmlodych.org/praktyki/

Źródło:
https://www.bbc.com/news/articles/c0kgydkr516o

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Wymagane zalogowanie

Musisz być zalogowany, aby wstawić komentarz

Zaloguj się

INNE WIADOMOŚCI


NAJCZĘŚCIEJ CZYTANE