2023-05-17 11:35:28 JPM redakcja1 K

Czy sztuczna inteligencja (SI) w dzisiejszych czasach jest zdolna do samodzielnej nauki? Jest to mało prawdopodobne

Jednym z najodważniejszych i najbardziej zapierających dech w piersiach stwierdzeń formułowanych o narzędziach wykorzystujących technologię SI jest to, że mają „wyłaniające się zdolności” – robiące wrażenie zdolności pozyskane przez programy, które ponoć nie były częścią oryginalnego oprogramowania. Amerykański program publicystyczny „60 Minutes” rzetelnie donosi, że program firmy Google nauczył się mówić po bengalsku.

Bard jest odpowiedzią Google na narzędzie ChatGPT. Oba programy rodzą pytania o możliwości dzisiejszej sztucznej inteligencji. 
(Matt Rourke / Associated Press)

 

Amerykański dziennik prasowy New York Times błędnie zdefiniował „wyłaniające się zdolności” w sztucznej inteligencji jako modele językowe pozyskujące „nieoczekiwane albo niezamierzone zdolności”, takie jak pisanie kodu komputerowego.

To nadużycie terminu „wyłaniający się” przez badaczy i zwolenników sztucznej inteligencji wykorzystuje terminologie z dziedzin biologii i fizyki, aby sugerować, że omawiane programy odkrywają nowe zasady naukowe związane z podstawowymi pytaniami o świadomość – a mianowicie że sztuczna inteligencja daje oznaki życia. Ekspert w dziedzinie lingwistyki komputerowej Emily Bender stwierdza, że sztucznej inteligencji przypisuje się zbyt duże zasługi od co najmniej lat 60 XX wieku. Nowe badanie przeprowadzone na Uniwersytecie Stanforda wskazuje, że „przebłyski” inteligencji w rzekomo „wyłaniających się” systemach są w prawdzie mirażami.

Jeśli już, te naciągane stwierdzenia przypominają zagranie marketingowe – są niezgodne z definicją słowa „wyłaniające się” używaną w dziedzinie nauki od dekad. Pojęcie to wyraża jeden z najbardziej sensacyjnych zjawisk w naturze: złożone, nieprzewidywalne zachowania wyłaniające się z prostych praw natury. Daleko odbiegając od tej klasycznej definicji, obecne systemy SI ukazują zachowania lepiej zdefiniowane jako „informacyjna kiełbasa”: złożone, ledwo akceptowalne produkty komputerowe, które przewidywanie wyłaniają się z jeszcze bardziej złożonego wkładu produkowanego na skalę przemysłową. 

Model językowy używany w procesie szkolenia sztucznej inteligencji wymaga gigantycznych magazynów danych pozyskanych z Internetu. Model przepuszcza je wielokrotnie przez sztuczne sieci neuronów, niektóre zawierające 175 miliardów poszczególnych parametrów oraz dostosowuje ustawienia sieci, aby uzyskać dokładniejsze wyniki. Prezes firmy OpenAI stwierdził, że proces składa się z oszałamiającej liczby obliczeń. Ostatecznie to ogromne przedsięwzięcie nie skutkuje niewyjaśnionym przebłyskiem inteligencji, a skompresowaną informacyjną kiełbasą. To produkcja przemysłowa informacyjnej kiełbasy, która ciasno pakuje tak ogromne ilości informacji, że jej zdolność do wypluwania milionów możliwych produktów stała się porządkiem dziennym. 

Można ją porównać do przykładów faktycznego wyłaniania się, takiego jak przepływ cieczy, który jest opisywany od dwóch wieków eleganckim sformułowaniem znanym jako równania Naviera-Stokesa. Krótsze niż haiku (krótki wiersz japoński) równania w pewnym stopniu charakteryzują zdumiewający zakres naturalnych zjawisk, począwszy od pary unoszącej się znad kubka kawy, a kończąc na rozciągających się kilometrami burzliwymi wirami systemów meteorologicznych. Żadne z tych zjawisk nie jest oczywiste z analiz równań. Jednakże spontanicznie zapoczątkowują one piękne, powiązane systemy złożonych zwojów. 

W swoich badaniach nad metodami obliczeniowymi trwającymi przeszło dwie dekady, podczas których usiłowałem ujarzmić te równania (oraz przekształcając niektóre z moich odkryć w algorytmy, które ukazały się w takich filmach, jak Awatar i Iron Man 3, za których stworzenie dostałem Oscara) widziałem, jak to piękno i złożoność, pojawiały się wielokrotnie. Możliwości dzisiejszej sztucznej inteligencji są daleko do tyłu.

Inne przykłady zachowań wyłaniania się w dziedzinie fizyki i biologii dotyczą czteroliniowych opisów wody i lodu, które nagle przekształcają się w skomplikowane wzorce płatków śniegu (co było tematem mojej pracy doktorskiej). Kolejnym przykładem są równania reakcji-dyfuzji Alana Turinga, Brytyjskiego naukowca, który stworzył niechlubny „test Turinga”, aby zbadać, czy systemy SI są nieodróżnialne od ludzi. Znalazł proste systemy równań opisujące interakcje chemiczne, które samoistnie organizują się w cętki geparda lub paski zebry.

Powstawanie rozpoznawalnych struktur biologicznych z pierwotnych kąpieli chemicznych wskazuję na lepsze zrozumienie jednych z podstawowych pytań, które zadaję sobie ludzkość: Jak powstało życie? Naukowcy są od stuleci zauroczeni możliwością przekształcenia prostych reakcji w skomplikowane zjawiska i co zrozumiałe traktują je z niemal religijnym zafascynowaniem. Gdy magia wyłania się z krótkich równań lub pierwotnego mułu, możemy być świadkami, jak coś powstaje z praktycznie niczego. Systemy ChatGPT od firmy OpenAI oraz Bard od firmy Google są produktem przemysłowym pochodzącym z kompleksu fabrycznego. 

Tak jak z prawdziwą kiełbasą poszczególne komponenty, które tworzą program ChatGPT, są ukryte w procesie produkcji. Nie oznacza to jednak, że nie da się ich wytłumaczyć, zwłaszcza z pomocą producentów. Po transmisji programu „60 Minutes” Margaret Mitchell zajmująca się badaniem etyki sztucznej inteligencji, która została zwolniona przez Google dwa lata temu, stwierdziła, że program od firmy Google mógł posługiwać się językiem bengalskim, ponieważ niemal z pewnością pokazano mu ten język w procesie szkolenia. Program używał również elementów pochodzących z wcześniejszego modelu, który już znał Bengalski. Sugestia, że nabył tę zdolność samodzielnie, jest mało wiarygodna. 

Twierdzenie „wyłaniania się” przypisywane sztucznej inteligencji umiejącej pisać kod komputerowy ma równie prozaiczne wyjaśnienie: W Internecie są ogromne ilości kodu. Po wielokrotnym pokazaniu programowi zawartości Internetu sztuczna inteligencja zapamiętuję języki pisane i języki programowania. Bagatelizowanie tak przyziemnego pochodzenia wzmacnia przekonanie, że systemy SI muszą być pod pewnym względem magiczne. Badacz humanistyki cyfrowej Lauren Klein wyjaśniła podczas niedawno przeprowadzonej rozmowy, że narracja opierająca się na przekonaniu, że kod komputerowy jest magią, a jego twórców można porównać do czarodziei, sięga lat 50 zeszłego wieku. Programiści uważali się za „członków kapłaństwa, których zadaniem było strzeżenie umiejętności i tajemnic zbyt skomplikowanych dla zwykłych śmiertelników”. W dzisiejszych czasach, gdy programowania uczy się studentów na uczelniach wyższych na całym świecie, ta iluzja stała się trudniejsza do podtrzymania. Sztuczna inteligencja jest przerabiana na swojego rodzaju tkaninę, w którą ubierają się członkowie nowego kapłaństwa. 

Twierdzenie, że złożone produkty powstałe z jeszcze bardziej skomplikowanego wkładu to „zachowanie wyłaniania się” jest jak znalezienie uciętego palca w hot dogu i dojście do wniosku, że fabryka kiełbasek nauczyła się produkować palce. Nowoczesne chat boty korzystające z technologii sztucznej inteligencji nie są magicznymi artefaktami bez precedensu w historii ludzkości. Nie produkują czegoś z niczego. Nie ujawniają wglądu w prawa rządzące ludzką świadomością i naszym fizycznym wszechświatem. Są zaledwie informacyjnymi kiełbasami wyprodukowanymi na skalę przemysłową. 

 

Theodore Kim jest docentem informatyki na Uniwersytecie Yale 

Dział: Informatyka

Autor:
Theodore Kim | Tłumacz: Gabriela Kaszuba

Żródło:
https://www.latimes.com/opinion/story/2023-05-14/ai-google-chatgpt-code-emergent-properties

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Treść wiadomości jest wymagana.