2024-06-08 10:52:53 JPM redakcja1 K

Pracownicy OpenAI i Google DeepMind ostrzegają przed „poważnymi zagrożeniami” stwarzanymi przez technologię sztucznej inteligencji

Pracownicy wezwali „firmy zajmujące się zaawansowaną sztuczną inteligencją”, aby nie podejmowały działań odwetowych wobec tych, którzy „publicznie dzielą się poufnymi informacjami związanymi z ryzykiem” na temat ich systemów.

Ekrany wyświetlające logo OpenAI i ChatGPT w Tuluzie, Francja, 23 stycznia 2023 r. Zdjęcie: Lionel Bonaventure/AFP via Getty Images

Grupa obecnych i byłych pracowników gigantów sztucznej inteligencji OpenAI i Google ostrzegła we wtorkowym liście otwartym przed „poważnymi zagrożeniami" stwarzanymi przez technologię sztucznej inteligencji i wezwała do większej ochrony informatorów w branży. List, opublikowany na stronie righttowarn.ai, został podpisany przez 13 byłych i obecnych pracowników OpenAI i Google DeepMind. Został on poparty przez ekspertów AI Yoshua Bengio, Geoffrey Hinton i Stuart Russell. 

Pracownicy stwierdzili, że wierzą, iż technologia AI może przynieść „bezprecedensowe korzyści dla ludzkości”, ale ostrzegli, że wiąże się ona z poważnymi zagrożeniami, które przyznały również firmy zajmujące się sztuczną inteligencją. „Tak długo, jak nie ma skutecznego nadzoru rządowego nad tymi korporacjami, obecni i byli pracownicy są jednymi z niewielu osób, które mogą pociągnąć je do odpowiedzialności przed opinią publiczną” - czytamy w liście. W liście wymieniono zagrożenia, począwszy od „dalszego utrwalania istniejących nierówności, poprzez manipulację i dezinformację, aż po utratę kontroli nad autonomicznymi systemami sztucznej inteligencji, co może doprowadzić do wyginięcia ludzi”. 

„Mamy nadzieję, że ryzyko to można odpowiednio złagodzić dzięki wystarczającym wskazówkom ze strony społeczności naukowej, decydentów i opinii publicznej” - napisali pracownicy. „Jednak firmy zajmujące się sztuczną inteligencją mają silną motywację finansową do unikania skutecznego nadzoru i nie uważamy, aby dostosowane struktury ładu korporacyjnego były wystarczające, aby to zmienić” - dodali. Podkreślili, że firmy zajmujące się sztuczną inteligencją mają „jedynie słabe zobowiązania” do ujawniania rządom „istotnych informacji niepublicznych”, które odnoszą się do możliwości i ograniczeń ich systemów, adekwatności ich środków ochronnych oraz poziomów ryzyka związanego z technologią.

List wzywa „zaawansowane firmy AI” do powstrzymania się od zawierania lub egzekwowania „wszelkich umów, które zabraniają dyskredytowania lub krytykowania firmy za kwestie związane z ryzykiem” i nie podejmowania działań odwetowych „poprzez utrudnianie uzyskania jakichkolwiek korzyści ekonomicznych”. Firmy zajmujące się sztuczną inteligencją zostały również wezwane do tego, aby nie podejmowały działań odwetowych wobec pracowników, którzy „publicznie dzielą się poufnymi informacjami związanymi z ryzykiem po tym, jak inne procesy zawiodły” oraz do promowania „kultury otwartej krytyki”. „Zwykła ochrona informatorów jest niewystarczająca, ponieważ koncentruje się na nielegalnej działalności, podczas gdy wiele zagrożeń, o które się martwimy, nie jest jeszcze regulowanych” - stwierdzili pracownicy. 

„Niektórzy z nas zasadnie obawiają się różnych form odwetu, biorąc pod uwagę historię takich przypadków w całej branży” - dodali. W zeszłym tygodniu OpenAI ogłosiła, że jej zarząd utworzył „Komitet Bezpieczeństwa i Ochrony”, kierowany przez pana Altmana i innych dyrektorów zarządu. Zadaniem komitetu jest przedstawianie zarządowi zaleceń dotyczących krytycznych decyzji w zakresie bezpieczeństwa i ochrony.

Dyrektor generalny OpenAI Sam Altman podczas spotkania w Paryżu, Francja, 26 maja 2023 r. Zdjęcie: Joel Saget/AFP via Getty Images

W oświadczeniu OpenAI stwierdziło, że pierwszym zadaniem komisji będzie ocena i dalszy rozwój „procesów i zabezpieczeń” OpenAI w ciągu najbliższych 90 dni.

Po zakończeniu prac komisja przedstawi swoje zalecenia całemu zarządowi.

Dział: Aktualności

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Wymagane zalogowanie

Musisz być zalogowany, aby wstawić komentarz

Zaloguj się

INNE WIADOMOŚCI


NAJCZĘŚCIEJ CZYTANE