Sztuczna inteligencja niesie niesamowite korzyści, ale także przerażające zagrożenia. Ograniczenie jej nie jest luddyzmem
Zabezpieczenia są niezbędne, nawet jeśli sztuczna technologia pomaga odkryć odpowiedzi na nasze najtrudniejsze pytania. Czy sztuczna inteligencja nas zniszczy, czy ocali?
Ilustracja: Dominic McKenzie/Obserwator
Odwieczna debata między optymistami i pesymistami technologicznymi, która toczyła się przez wieki, gdy stały postęp ludzkości dostarczał nowych technologii, od koła, przez prasę drukarską, po smartfony. Dziś jest to rozmowa prowadzona z coraz większą powagą na temat sztucznej inteligencji.
Optymiści zwracają uwagę, że historia niezliczoną ilość razy udowodniła, że sceptycy się mylili. Weźmy na przykład prasę drukarską: XV-wieczny kościół katolicki obawiał się, że rozprzestrzenianie się informacji podważy autorytet i stabilność w całej Europie; niektórzy intelektualiści martwili się, że informacje będą niebezpieczne w rękach plebsu; cechy rzemieślnicze sprzeciwiały się demokratyzacji swoich umiejętności za pomocą podręczników. Ostatecznie prasa drukarska wyrządziła szkody - publikacja podręcznika polowania na czarownice w 1486 r. utorowała drogę do stuleci prześladowań kobiet podejrzanych o bycie czarownicami - ale były one całkowicie przyćmione przez jej oświeceniowe korzyści. Współczesny luddysta nie jest szczególnie atrakcyjnym płaszczem, a na pierwszym globalnym szczycie bezpieczeństwa AI, który odbędzie się w tym tygodniu w Wielkiej Brytanii, będzie duża presja ze strony branży na polityków uczestniczących w spotkaniu, aby porzucili doomeryzm i dołączyli do „cool” gangu.
Korzyści mogą być niesamowite. Sztuczna inteligencja mogłaby odblokować odpowiedzi na niektóre z egzystencjalnych wyzwań stojących przed ludzkością: znaczne przyspieszenie odkrywania nowych metod leczenia chorób takich jak demencja i rak; tworzenie nowych antybiotyków w obliczu oporności drobnoustrojów; projektowanie technologii, które zmniejszają kompromis między konsumpcją a emisją dwutlenku węgla. Na poziomie indywidualnym, wiodący ekspert w dziedzinie sztucznej inteligencji i naukowiec Stuart Russell twierdzi, że sztuczna inteligencja mogłaby zapewnić każdemu z nas odpowiednik "wysokiej klasy prawnika, księgowego i doradcy politycznego" na zawołanie, w dowolnym momencie; a dzieciom na całym świecie wysokiej jakości indywidualne nauczanie. Każdy mógłby mieć terapię, kiedy tylko by tego chciał.
Te ogromne korzyści wiążą się jednak z ogromnym ryzykiem. Przyznanie, że sztuczna inteligencja sama w sobie może stanowić zagrożenie egzystencjalne, nie jest czymś z fantastyki naukowej. Niektórzy z czołowych światowych technologów i entuzjastów sztucznej inteligencji sami przełamali szeregi, wzywając do wprowadzenia większej liczby regulacji.
Technologia nie zmniejszyła zapotrzebowania na ludzką pracę, ale skoncentrowała władzę gospodarczą i podsyciła nierówności. Czy nasza polityka jest na to gotowa?
Istnieją cechy sztucznej inteligencji, które sprawią, że rewolucje technologiczne, których doświadczyliśmy do tej pory, zbledną w porównaniu z nią. Pierwszą z nich jest jej skala: Sztuczna inteligencja pozostawiła w tyle prawo Moore'a, które przewidywało, że moc obliczeniowa będzie się podwajać co dwa lata. Najnowocześniejsza sztuczna inteligencja jest dziś 5 miliardów razy potężniejsza niż dekadę temu. Tak więc sztuczna inteligencja zwiększy produktywność i zasadniczo zmieni charakter ludzkiej pracy, podobnie jak poprzednie technologie, ale w tempie, jakiego nigdy wcześniej nie widzieliśmy. Podczas gdy technologia nigdy nie zmniejszyła zapotrzebowania na ludzką pracę - nowe miejsca pracy powstały tam gdzie inne przestały istnieć - skoncentrowała ona władzę gospodarczą i podsyciła nierówności. Czy nasze systemy polityczne są na to gotowe?
Poza skalą rozwoju, istnieje potencjalny brak ludzkiej kontroli. Wiele modeli sztucznej inteligencji działa jak czarna skrzynka, a ich działanie jest niewidoczne dla użytkownika. Opracowywane są autonomiczne modele sztucznej inteligencji, które mogą realizować cele szczytne cele; ale czy programiści mogą przewidzieć, w jaki sposób będą się rozwijać po wypuszczeniu na świat i co powstrzyma sztuczną inteligencję przed realizacją celów, które nie są zgodne z interesami społecznymi? W przypadku firm działających w mediach społecznościowych widzieliśmy, co się dzieje, gdy ich chęć zysku skłania je do wyrządzania szkód poprzez promowanie dzielących odbiorców treści i dezinformacji. Okazało się to wystarczająco trudne do uregulowania, mimo że jest to łatwe do zrozumienia, przewidywalne zjawisko.
Wyzwanie związane z kontrolą oznacza, że sztuczna inteligencja może zapewnić ogromną moc niszczenia podłych biznesów, albo ewoluować, by sama się jednym stać. Istniejące duże modele językowe, takie jak Chat GPT, które już teraz generują trudne do wykrycia fałszywe informacje wraz z fałszywymi cytatami; w niewłaściwych rękach mogą one siać spustoszenie w naszej zdolności do odróżniania prawdy od propagandy. Istnieje ciemna strona działania chatbotów AI pozwalająca im rozwijać kontrolujące relacje z ludźmi i manipulować nimi lub nakłaniać do robienia strasznych rzeczy; 21-letni mężczyzna skazany w tym miesiącu na dziewięć lat więzienia za włamanie się do zamku Windsor z kuszą w 2021 roku rozmawiał z "przyjacielem" AI, który zachęcał go do przeprowadzenia ataku. Na początku tego roku belgijski mężczyzna cierpiący na zaburzenia psychiczne, który odebrał sobie życie, został nakłoniony do tego przez chatbota. Narzędzie może pomóc przestępcom w przeprowadzaniu niszczycielskich cyberataków, a terrorystom w tworzeniu broni biologicznej.
Niewiele czasu, zasobów i energii poświęcono jednak bezpieczeństwu sztucznej inteligencji. Russell wskazuje, że sklepy z kanapkami podlegają większym regulacjom niż firmy zajmujące się sztuczną inteligencją, a jeśli chodzi o inne technologie, które stanowią poważne zagrożenie dla ludzkiego życia, takie jak lotnictwo czy energia jądrowa, nie pozwalamy firmom na ich eksploatację, chyba że z wyprzedzeniem spełniają minimalne standardy bezpieczeństwa. Argumentuje, że rozwój sztucznej inteligencji musi być licencjonowany w ten sam sposób: jeśli firma nie jest w stanie wykazać, że jej technologia jest bezpieczna, nie powinna mieć pozwolenia na jej wypuszczenie.
Tego rodzaju regulacje wiążą się z ogromnymi wyzwaniami. Jak zdefiniować szkodliwość? Co to w ogóle znaczy uczynić sztuczną inteligencję "bezpieczną"? Odpowiedź jest jasna w przypadku lotnictwa lub energii jądrowej; mniej w przypadku sztucznej inteligencji. Brak uzgodnionej definicji zniweczył próby uregulowania mediów społecznościowych; i chociaż w niektórych kwestiach będzie panował globalny konsensus, w innych nie będzie zgody opartej na wartościach; Chiny wprowadziły w tym roku surowe przepisy dotyczące sztucznej inteligencji takiej jak ChatGPT, które nakazują firmom przestrzeganie "podstawowych wartości socjalistycznych".
Różnice te mają znaczenie, ponieważ, jak zauważyli eksperci, regulacje dotyczące sztucznej inteligencji są prawdopodobnie tak dobre, jak najsłabsze ogniwo na świecie. Pomyśl o wyzwaniu koordynacji związanym z globalną reakcją na kryzys klimatyczny i pomnóż je wielokrotnie; (brak) działań jednego kraju może mieć znacznie większy wpływ. Trudno nawet wyobrazić sobie poziom globalnej innowacyjności w zarządzaniu potrzebny do nadzorowania tego procesu.
Skala wyzwania nie może jednak zniechęcać przywódców politycznych. Muszą oni oprzeć się nieuniknionym wezwaniom ze strony wielkich technologii, by odpuścić i wierzyć, że wszystko się ułoży. Najlepszym scenariuszem jest to, że za 100 lat studenci historii zapiszą apokaliptyczne ostrzeżenia jako luddyzm XXI wieku. Zastanawiam się jednak, czy zamiast tego nie spojrzą na ten okres jako na sielski moment, zanim wady technologii zaczęły przeważająco przyćmiewać jej zalety.
Dział: Technologia
Autor:
Sonia Sodha | Tłumaczenie: Magdalena Makowska
Źródło:
https://www.theguardian.com/commentisfree/2023/oct/29/artificial-intelligence-safeguards-risks-ai