2024-04-29 18:41:57 JPM redakcja1 K

Dyrektorzy generalni OpenAI, Google i Microsoft dołączają do innych liderów technologicznych w federalnej grupie ds. bezpieczeństwa sztucznej inteligencji

Rząd USA poprosił wiodące firmy zajmujące się sztuczną inteligencją o poradę dotyczącą sposobów wykorzystania przez nie tworzonej technologii do obrony linii lotniczych, przedsiębiorstw użyteczności publicznej i innych kluczowych infrastruktur, zwłaszcza przed atakami opartymi na sztucznej inteligencji.

Dyrektor generalny OpenAI Sam Altman, po lewej, dyrektor generalny Google Sundar Pichai i dyrektor generalny Microsoft Satya Nadella. Zdjęcie: AFP/Reuters/Bloomberg/Getty Images.

Departament Bezpieczeństwa Wewnętrznego oświadczył w piątek, że tworząca się grupa będzie obejmować dyrektorów generalnych niektórych z największych firm i branż na świecie. Na liście znajdują się dyrektor generalny Google, Sundar Pichai, dyrektor generalny Microsoftu, Satya Nadella i dyrektor generalny OpenAI, Sam Altman, ale także szefowie kontrahentów obronnych, takich jak Northrop Grumman, i przewoźników lotniczych, takich jak Delta Air Lines. Ten krok odzwierciedla bliską współpracę rządu USA z sektorem prywatnym w obliczu konieczności zarówno radzenia sobie z ryzykami, jak i korzyściami płynącymi ze sztucznej inteligencji w przypadku braku precyzyjnego ustawodawstwa krajowego dotyczącego sztucznej inteligencji.

Grupa ekspertów będzie udzielać rad firmom telekomunikacyjnym, operatorom rurociągów, przedsiębiorstwom energetycznym i innym sektorom zaleceń dotyczących "odpowiedzialnego" wykorzystania sztucznej inteligencji, poinformował DHS. Grupa będzie również pomagać tym sektorom w przygotowaniu się do "zakłóceń związanych ze sztuczną inteligencją". "Sztuczna inteligencja to transformacyjna technologia, która może rozwijać nasze narodowe interesy w sposób dotąd niespotykany", powiedział w oświadczeniu sekretarz DHS, Alejandro Mayorkas. "Jednocześnie niesie ze sobą realne ryzyko. Ryzyko, które możemy zminimalizować, stosując najlepsze praktyki i podejmując inne przemyślane, konkretne działania".

Wśród pozostałych uczestników grupy znajdują się dyrektorzy generalni dostawców technologii, takich jak Amazon Web Services, IBM i Cisco; producenci chipów, tacy jak AMD; twórcy modeli sztucznej inteligencji, tacy jak Anthropic; oraz grupy praw obywatelskich, takie jak Komitet Prawników. W skład wchodzą także urzędnicy federalni, stanowi i lokalni, a także wiodący naukowcy w dziedzinie sztucznej inteligencji, tacy jak Fei-Fei Li, współdyrektor Instytutu Sztucznej Inteligencji Skoncentrowanej na Człowieku Uniwersytetu Stanforda. 22-osobowa Rada ds. Bezpieczeństwa i Ochrony Sztucznej Inteligencji jest wynikiem rozporządzenia wykonawczego Prezydenta Joe Bidena z 2023 roku, który wezwał do utworzenia międzybranżowego organu ds. "zaleceń dotyczących poprawy bezpieczeństwa, odporności i reakcji na incydenty związane z wykorzystaniem sztucznej inteligencji w infrastrukturze krytycznej".

To samo zarządzenie doprowadziło w tym roku do wprowadzenia przepisów obejmujących cały rząd regulujących sposób, w jaki agencje federalne mogą nabywać i wykorzystywać sztuczną inteligencję w swoich własnych systemach. Rząd USA już teraz wykorzystuje uczenie maszynowe lub sztuczną inteligencję w ponad 200 różnych celach, takich jak monitorowanie aktywności wulkanicznej, śledzenie pożarów lasów i identyfikacja dzikiej przyrody na zdjęciach satelitarnych. Tymczasem deepfake audio i filmy, które wykorzystują sztuczną inteligencję do rozpowszechniania fałszywych treści, stały się kluczowym problemem dla urzędników USA, którzy próbują chronić wybory w USA w 2024 roku przed szerzącą się dezinformacją. Fałszywe robotelefony w styczniu, imitujące głos Bidena, wezwały Demokratów do niegłosowania w prawyborach w New Hampshire, co wzbudziło alarmy wśród urzędników USA skoncentrowanych na bezpieczeństwie wyborów. Magik z Nowego Orleanu powiedział CNN, że demokratyczny konsultant polityczny wynajął go, aby wykonał ten fałszywy robotelefon. Istnieje jednak obawa, że ​​zagraniczni przeciwnicy, tacy jak Rosja, Chiny czy Iran, mogliby wykorzystać tę samą technologię.

"To realne ryzyko", powiedział Mayorkas dziennikarzom w piątek, omawiając radę doradczą ds. sztucznej inteligencji. "Obserwujemy zaangażowanie niektórych państw narodowych i staramy się przeciwdziałać ich próbom nieuzasadnionego wpływania na nasze wybory".

Dział: Świat

Autor:
Brian Fung and Sean Lyngaas | Tłumaczenie: Dominik Brzózka

Żródło:
https://edition.cnn.com/2024/04/26/tech/openai-altman-government-ai-safety-panel/

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Treść wiadomości jest wymagana.


INNE WIADOMOŚCI


NAJCZĘŚCIEJ CZYTANE