Ludzie powinni obawiać się sztucznej inteligencji, ale nie z powodów, które możemy sobie wyobrazić
Przewidywania dotyczące ryzyka nie mogą zajrzeć za kulisy technologii. Jak więc ludzkość projektuje świat pod kątem nieznanych zagrożeń?
Czy sztuczna inteligencja może zniszczyć ludzkość? Wielu ekspertów uważa, że jest to możliwe. Wybitni technolodzy, ekonomiści, generałowie, filozofowie i autorzy science fiction wyobrazili sobie wiele łańcuchów zdarzeń, w których sztuczna inteligencja prowadzi do globalnej katastrofy i końca cywilizacji. W rzeczywistości jednak nie powinniśmy obawiać się żadnego z tych możliwych dystopijnych scenariuszy, ponieważ jeśli potrafimy je sobie wyobrazić, możemy również im zapobiec. To, czego powinniśmy się obawiać, to niewyobrażalny scenariusz. Ten, który jest absolutnie nieznany i nie można mu zapobiec. Historia pokazała, że ludzie nie są w stanie wyobrazić sobie prawdziwego niszczycielskiego potencjału technologii. Koncepcje takie jak Skynet - cybernetyczny umysł, który przejął kontrolę nad amerykańskim systemem rakietowym, aby przeprowadzić zmasowany atak nuklearny na Rosję i doprowadzić do zniszczenia ludzkości - są równie dziecinne, co możliwe do uniknięcia. Możemy również uniknąć katastrof, które zostały nakreślone w prognozie ryzyka, którą napisałem o tym, jak generatywna sztuczna inteligencja może zakończyć samą koncepcję rzeczywistości, powodując bezprecedensowy globalny kryzys społeczny. W rzeczywistości dwie z zapór ogniowych zaproponowanych przez ekspertów, z którymi przeprowadzono wywiady na potrzeby tego artykułu - tworzenie nowych przepisów i kryptograficzne uwierzytelnianie prawdziwych zdjęć i filmów, są już w toku, gdy piszę te słowa. W tym samym czasie, gdy ukazał się ten artykuł, analitycy Bank of America opublikowali raport, w którym stwierdzili, że sztuczna inteligencja jest rewolucją porównywalną z elektrycznością. Broń, leki, statki kosmiczne - wiele branż jest już przekształcanych przez technologię, która w ciągu zaledwie siedmiu lat wniesie do światowej gospodarki 15,7 biliona dolarów, czyli więcej niż roczny produkt krajowy brutto całej strefy euro w 2022 roku. W innym raporcie Goldman Sachs stwierdził, że sztuczna inteligencja może wyeliminować dwie trzecie miejsc pracy w Europie i Stanach Zjednoczonych w ciągu zaledwie dziesięciu lat - około 300 milionów ludzi, z których wielu to projektanci, pisarze, producenci wideo, specjaliści od efektów wizualnych lub architekci - tworząc w zamian tylko około 11 milionów nowych miejsc pracy. W ciągu kilku dni od tych doniesień grupa ekspertów i technologów wezwała do wstrzymania szkolenia dużych modeli sztucznej inteligencji, takich jak ChatGPT. Elon Musk, współzałożyciel Apple Steve Wozniak i ponad 1000 intelektualistów i badaczy z branży sztucznej inteligencji argumentowało, że gramy z potężną siłą bez uprzedniego przemyślenia możliwych konsekwencji. Zła wiadomość jest taka, że przewidzenie tych konsekwencji jest niemożliwe. Możemy ekstrapolować kilka lat od teraz, ale te prognozy są niezwykle ograniczone, ponieważ nie uwzględniają nieoczekiwanych zdarzeń. Futuryści tacy jak Brian David Johnson nazywają takie sytuacje „czarnymi łabędziami", sytuacje, które pojawiają się znikąd i mają nadzwyczajne skutki.
Johnson, który był głównym futurystą w firmie Intel, napisał książkę o prototypowaniu sci-fi, technice wykorzystywanej do wyobrażenia sobie następnych dziesięciu lat każdego potencjalnego zagrożenia dla wojska i prywatnych korporacji. Jesienią ubiegłego roku powiedział mi w wywiadzie wideo, że im bardziej wybiegamy w przyszłość, tym mniej dokładne będą nasze przewidywania, a co za tym idzie, tym mniejsza będzie nasza zdolność do działania i zapobiegania. Jest to szczególnie prawdziwe, gdy mówimy o sztucznej inteligencji. Jak możemy myśleć o możliwych konsekwencjach technologii, która rozwija się w tempie wykładniczym, takiej, która codziennie zaskakuje swoich twórców? Jak możemy przewidzieć inteligencję, której istotą jest zdolność do tworzenia nieoczekiwanych rozwiązań? Istnieją setki potencjalnych czarnych łabędzi czających się w bagnie, jeśli chodzi o jedną z najpotężniejszych technologii opracowanych przez ludzi.
STRACH PRZED NIEOCZEIWANYM
Prognozy dotyczące przyszłości ludzkości są zazwyczaj ekstrapolacją znanych nam zagrożeń. Na przykład w 1950 roku futuryści przewidywali, że polio będzie jedną z największych plag XXI wieku. Zaledwie trzy lata później amerykański lekarz Jonas Salk stworzył szczepionkę, która wyeliminowała chorobę z naszej planety w rekordowym czasie. W 1950 roku nikt nie mógł sobie wyobrazić, że w 2023 roku polio będzie prawie nieistniejące i że dziś będziemy musieli stawić czoła innym zagrożeniom egzystencjalnym, takim jak szerząca się dezinformacja w mediach społecznościowych lub, tak, sztuczna inteligencja. Skynet, koniec rzeczywistości, 300 milionów ludzi tracących pracę: to wszystko pochodne tego, co wiemy dzisiaj. Możemy się na to przygotować, budując zabezpieczenia, od wyłączników awaryjnych dla najgorszych scenariuszy po przepisy, które zapobiegawczo ograniczają pewne zagrożenia. Do tego właśnie służy prototypowanie zagrożeń: do przemyślenia i przygotowania się na jak najwięcej scenariuszy kryzysowych, aby zapobiec całkowitej katastrofie. Ale co robimy, gdy mamy nieskończoną liczbę potencjalnych wyników? Weźmy na przykład ChatGPT, sztuczną inteligencję, która aktywnie próbuje wymazać ludzkość z planety. Jej najnowsza taktyka, którą uruchomiła kilka tygodni temu polega na gromadzeniu ludzkich zwolenników, którzy będą działać jako jej fizyczne ramię w prawdziwym świecie. Jest to ograniczony, ale interesujący eksperyment, ponieważ pokazuje, w jaki sposób sztuczna inteligencja może próbować samodzielnie czynić zło. Czy ChatGPT uda się zrealizować misję zniszczenia ludzkości? Z pewnością nie ma takiej możliwości, ponieważ jego możliwości i zasoby są nadal ograniczone. Ale co stanie się w niedalekiej przyszłości, gdy ktoś użyje nowej wersji z kilkoma bilionami parametrów? Takiej, która jest AGI lub zbliżona do AGI (Artificial General Intelligence, SI, która może dostosowywać się i tworzyć nowe rozwiązania jak człowiek, ale ze znacznie większą mocą i szybkością)? Czy ta przyszła sztuczna inteligencja będzie w stanie infiltrować rosyjskie systemy radarowe, aby wyświetlać fałszywie pozytywne informacje o kilku ukraińskich rakietach w drodze do Moskwy, co z kolei sprowokuje strategiczne uderzenie nuklearne na Kijów, rozpoczynając międzynarodową reakcję łańcuchową? Czy będzie w stanie opracować niemożliwego do powstrzymania śmiertelnego wirusa, który rozprzestrzeni się na całym świecie? Ponownie, te scenariusze są przewidywalne i można ich uniknąć. Te plany są zazwyczaj ludzkie, ale sztuczna inteligencja może wymyślić miliony rozwiązań, których żaden człowiek nie jest w stanie sobie wyobrazić, nawet w naszych najgorszych koszmarach. W ten sam sposób, w jaki Midjourney może teraz wygenerować tysiąc różnych kreatywnych rozwiązań w ciągu zaledwie kilku minut - o których, z prostej kwestii statystyk i czasu, żaden człowiek nie mógłby pomyśleć - AGI skoncentrowana na zniszczeniu nas będzie w stanie zrobić to samo. To jest wielkie zagrożenie dla naszego istnienia.
JEDYNA PRZYSZŁOŚĆ, KTÓREJ MOŻEMY BYĆ PEWNI
Musimy również wziąć pod uwagę możliwość, że sztuczna inteligencja nie wyeliminuje ludzi w apokaliptyczny sposób. W rzeczywistości może to być najbardziej prawdopodobny scenariusz: ludzkość może po prostu umrzeć jak żaba powoli gotująca się w przysłowiowym garnku, której temperatura powoli rośnie, napędzana tysiącami czynników, w tym naszymi własnymi biologicznymi ograniczeniami. Tak jak współcześni ludzie przeżyli resztę gatunku w darwinowskim wyścigu, eliminując neandertalczyka w tym procesie, możliwe jest, że sztuczna inteligencja przeżyje nas, ponieważ będzie po prostu lepsza od nas pod każdym względem. Czy AI może być ewolucyjnym szczytem życia na Ziemi? Ryan McClelland - inżynier NASA Goddard Space Flight Center w Greenbelt w stanie Maryland - powiedział niedawno, że kiedy ludzie słyszą, jak ktoś z agencji kosmicznej wspomina słowo „obcy", bez względu na to, do czego się odnosi, stwierdzenie to natychmiast staje się popularne. McClelland odnosił się do artykułów takich jak ten, który opublikowaliśmy kilka miesięcy temu, w którym mówiliśmy o tym, jak McClelland wykorzystuje sztuczną inteligencję do projektowania i budowania komponentów statków kosmicznych o wyglądzie kosmitów. W jego przypadku fascynacja ma sens: Dla większości ludzi sztuczna inteligencja wydaje się teraz nowym proto-życiem o nieznanej naturze, które nieustannie ewoluuje, więc termin obcy wydaje się łączyć z tą ludzką intuicją. Sztuczna inteligencja jest marsjańska. Ale jeśli naprawdę się nad tym zastanowić, AI jest niczym więcej niż potomkiem nas samych. AI nie jest obcym; AI jest człowiekiem. A pod wieloma względami, takimi jak możliwości obliczeniowe, jest już nadludzka. Wkrótce, po osiągnięciu ogólnej sztucznej inteligencji, będzie ona w pełni nas przewyższać. W skali ewolucyjnej dzisiejsza sztuczna inteligencja przypomina pierwsze etapy na drodze do kolejnego gatunku z rodzaju homo, gatunku, który tym razem nie będzie ograniczony ograniczeniami biologii. Być może zostanie on nazwany Homo artificialis intelligentia. W tym kontekście sztuczna inteligencja McClellanda tworzy pierwsze „kości" nowego gatunku, który będzie wędrował po gwiazdach za kilka tysięcy lat. A w tej odległej przyszłości potomkowie tych SI rzeczywiście będą kosmitami na odległych światach, być może długo po tym, jak Ziemia i biologiczni ludzie na zawsze znikną z kosmosu. Dla mnie jest to jedyny scenariusz „końca ludzkości", który wydaje się pewny: Sztuczna inteligencja nie zabije ludzkości. Ludzkość zginie sama, a SI przetrwa, by podtrzymać płomień naszego gatunku.
Dział: Technologia
Autor:
Jesus Diaz | Tłumaczenie: Martyna Riabkow
Źródło:
https://www.fastcompany.com/90887290/humans-should-fear-ai-not-for-the-reasons-we-imagine