Dyrektorzy generalni OpenAI, Google i Microsoft dołączają do innych liderów technologicznych w federalnej grupie ds. bezpieczeństwa sztucznej inteligencji
Rząd USA poprosił wiodące firmy zajmujące się sztuczną inteligencją o poradę dotyczącą sposobów wykorzystania przez nie tworzonej technologii do obrony linii lotniczych, przedsiębiorstw użyteczności publicznej i innych kluczowych infrastruktur, zwłaszcza przed atakami opartymi na sztucznej inteligencji.
Dyrektor generalny OpenAI Sam Altman, po lewej, dyrektor generalny Google Sundar Pichai i dyrektor generalny Microsoft Satya Nadella. Zdjęcie: AFP/Reuters/Bloomberg/Getty Images.
Departament Bezpieczeństwa Wewnętrznego oświadczył w piątek, że tworząca się grupa będzie obejmować dyrektorów generalnych niektórych z największych firm i branż na świecie. Na liście znajdują się dyrektor generalny Google, Sundar Pichai, dyrektor generalny Microsoftu, Satya Nadella i dyrektor generalny OpenAI, Sam Altman, ale także szefowie kontrahentów obronnych, takich jak Northrop Grumman, i przewoźników lotniczych, takich jak Delta Air Lines. Ten krok odzwierciedla bliską współpracę rządu USA z sektorem prywatnym w obliczu konieczności zarówno radzenia sobie z ryzykami, jak i korzyściami płynącymi ze sztucznej inteligencji w przypadku braku precyzyjnego ustawodawstwa krajowego dotyczącego sztucznej inteligencji.
Grupa ekspertów będzie udzielać rad firmom telekomunikacyjnym, operatorom rurociągów, przedsiębiorstwom energetycznym i innym sektorom zaleceń dotyczących "odpowiedzialnego" wykorzystania sztucznej inteligencji, poinformował DHS. Grupa będzie również pomagać tym sektorom w przygotowaniu się do "zakłóceń związanych ze sztuczną inteligencją". "Sztuczna inteligencja to transformacyjna technologia, która może rozwijać nasze narodowe interesy w sposób dotąd niespotykany", powiedział w oświadczeniu sekretarz DHS, Alejandro Mayorkas. "Jednocześnie niesie ze sobą realne ryzyko. Ryzyko, które możemy zminimalizować, stosując najlepsze praktyki i podejmując inne przemyślane, konkretne działania".
Wśród pozostałych uczestników grupy znajdują się dyrektorzy generalni dostawców technologii, takich jak Amazon Web Services, IBM i Cisco; producenci chipów, tacy jak AMD; twórcy modeli sztucznej inteligencji, tacy jak Anthropic; oraz grupy praw obywatelskich, takie jak Komitet Prawników. W skład wchodzą także urzędnicy federalni, stanowi i lokalni, a także wiodący naukowcy w dziedzinie sztucznej inteligencji, tacy jak Fei-Fei Li, współdyrektor Instytutu Sztucznej Inteligencji Skoncentrowanej na Człowieku Uniwersytetu Stanforda. 22-osobowa Rada ds. Bezpieczeństwa i Ochrony Sztucznej Inteligencji jest wynikiem rozporządzenia wykonawczego Prezydenta Joe Bidena z 2023 roku, który wezwał do utworzenia międzybranżowego organu ds. "zaleceń dotyczących poprawy bezpieczeństwa, odporności i reakcji na incydenty związane z wykorzystaniem sztucznej inteligencji w infrastrukturze krytycznej".
To samo zarządzenie doprowadziło w tym roku do wprowadzenia przepisów obejmujących cały rząd regulujących sposób, w jaki agencje federalne mogą nabywać i wykorzystywać sztuczną inteligencję w swoich własnych systemach. Rząd USA już teraz wykorzystuje uczenie maszynowe lub sztuczną inteligencję w ponad 200 różnych celach, takich jak monitorowanie aktywności wulkanicznej, śledzenie pożarów lasów i identyfikacja dzikiej przyrody na zdjęciach satelitarnych. Tymczasem deepfake audio i filmy, które wykorzystują sztuczną inteligencję do rozpowszechniania fałszywych treści, stały się kluczowym problemem dla urzędników USA, którzy próbują chronić wybory w USA w 2024 roku przed szerzącą się dezinformacją. Fałszywe robotelefony w styczniu, imitujące głos Bidena, wezwały Demokratów do niegłosowania w prawyborach w New Hampshire, co wzbudziło alarmy wśród urzędników USA skoncentrowanych na bezpieczeństwie wyborów. Magik z Nowego Orleanu powiedział CNN, że demokratyczny konsultant polityczny wynajął go, aby wykonał ten fałszywy robotelefon. Istnieje jednak obawa, że zagraniczni przeciwnicy, tacy jak Rosja, Chiny czy Iran, mogliby wykorzystać tę samą technologię.
"To realne ryzyko", powiedział Mayorkas dziennikarzom w piątek, omawiając radę doradczą ds. sztucznej inteligencji. "Obserwujemy zaangażowanie niektórych państw narodowych i staramy się przeciwdziałać ich próbom nieuzasadnionego wpływania na nasze wybory".
Dział: Świat
Autor:
Brian Fung and Sean Lyngaas | Tłumaczenie: Dominik Brzózka
Źródło:
https://edition.cnn.com/2024/04/26/tech/openai-altman-government-ai-safety-panel/