2024-10-24 16:58:38 JPM redakcja1 K

Odpowiedzi na największe pytania dotyczące sztucznej inteligencji

Czy sztuczna inteligencja zawsze będzie udzielać błędnych odpowiedzi? Czy możemy zapobiec narastaniu problemów z przeszłości związanych ze sztuczną inteligencją? Czterech ekspertów wypowiada się na ten temat.

Źródło: Muhammad Bagus Prasetyo

 

Czy możemy ufać temu co widzimy?

 

an illustration of a person taking a photo

Źródło: Muhammad Bagus Prasetyo

 

Fred Ritchin zastanawiał się nad przyszłością fotografii przez prawie pół wieku. Zaczął zauważać zmiany w medium w 1982, pracując jako redaktor zdjęć w New York Times Magazine; w 1984 roku napisał artykuł dla magazynu, Photography’s New Bag of Tricks, o konsekwencjach cyfrowej technologii edytorskiej we współczesnym fotoreportażu. W ciągu ostatnich dziesięcioleci był świadkiem przejścia od wczesnych dni cyfrowej edycji zdjęć, aż do tworzenia obrazów przez AI, w których amatorscy jak i profesjonalni użytkownicy mogli używać cyfrowych usług, aby natychmiast wygenerować realistyczne wizualizacje.

Podczas gdy obrazy AI stają się coraz bardziej powszechne, Ritchin uważa, że ludzie muszą znaleźć nowe sposoby na potwierdzenie tego co widzą. Oczywiście, obrazy AI nie pojawiły się znikąd. Ritchin prześledził drogę od współczesnych rozmów na temat najlepszych praktyk w zakresie sztucznej inteligencji do tych z czasów przed Photoshopem, dotyczących tego, czy dziennikarze powinni ujawniać zmiany w fotografiach. We wczesnych czasach cyfrowej edycji, National Geographic było krytykowane za cyfrowe przesunięcie piramid w Gizie bliżej siebie na okładce z lutego 1982 roku. Obecnie fotografowie National Geographic są zobowiązani do robienia zdjęć w formacie RAW—ustawieniu, które produkuje nieprzeprocesowane, nieskompresowane obrazy—a magazyn ma surową politykę przeciwko manipulacji zdjęciami.

Ritchin twierdzi, że edytorzy, wydawcy i fotoreporterzy powinni odpowiedzieć na wyzwania związane ze sztuczną inteligencją poprzez ustanawianie wyraźnych standardów; firmy medialne i fotograficzne zaczęły rozwijać opcje automatycznego osadzania metadanych i kryptograficznych znaków wodnych na zdjęciach, aby pokazać kiedy zdjęcie zostało zrobione i czy było naruszane przez cyfrową obróbkę lub modyfikację AI. Chociaż Ritchin nie nawołuje do całkowitego odrzucenia AI, ma nadzieję, że uda mu się na nowo odkryć wyjątkową moc, jaką fotografia niegdyś miała w naszych osobistych i politycznych życiach. 

Weźmy pod uwagę zdjęcie Nicka Uta z 1972 roku przedstawiające wietnamską dziewczynę uciekającą nago przed uderzeniem napalmu, zrobione w czasach, gdy pojedynczy obraz mógł przyciągnąć uwagę całego świata. „Generał William Westmoreland próbował powiedzieć, że był to wypadek z hibachi; Prezydent Richard Nixon chciał temu zaprzeczać”, mówi Ritchin. Jednakże zdjęcie „pomogło zakończyć wojnę szybciej, a życie wielu ludzi nie zostało [stracone]. To wielka sprawa… ale teraz, mógłbyś to zobaczyć i pomyśleć, że jakiś 14-latek mógłby to zrobić gdzieś w garażu; nie zmieni to mojego głosu”.

 

Czy musimy zaakceptować, że maszyny są omylne?

 

an illustration of a person on a computer

Źródło: Muhammad Bagus Prasetyo

 

W szczególnie zabawnym momencie niedawne badanie wykazało, że jeden z najpopularniejszych chatbotów AI, na którym polega wiele osób, udostępnia niedokładne porady dotyczące kodowania i programowania komputerów. Jest to obecnie poważny problem, z którym mierzy się AI – te ewoluujące algorytmy mogą mieć halucynacje, to termin oznaczający, że uczący się model produkuje stwierdzenia, które brzmią na prawdopodobne, ale były całkowicie zmyślone.

Dzieje się tak, ponieważ aplikacje generatywne AI takie jak wielkie językowe modele pracują, funkcjonalnie, jako program przewidujący. Kiedy zadaje się pytanie, AI przesiewa swoją bazę w poszukiwaniu istotnych informacje. Potem, używając tej informacji, przewiduje zestaw słów, które postrzega za upragnioną odpowiedź na pytania. Po tej prognozie następuje kolejne prognoza—kolejny zestaw słów—który został przeszkolony, aby oczekiwać, że nadejdzie następny, i tak dalej.

Jednakże Rayid Ghani, profesor na Wydziale Uczenia Maszynowego Uniwersytetu Carnegie Mellon i Heinz College of Information Systems and Public Policy, mówi, że ten proces bardziej podkreśla prawdopodobieństwo niż prawdę: większość generatywnych modeli sztucznej inteligencji została wytrenowana na dużych ilościach danych z całego Internetu, ale nikt nie sprawdził dokładności tych danych, a sztuczna inteligencja nie rozumie, co jest, a co nie jest wiarygodnym źródłem. To dlatego, na przykład, otrzymaliśmy słynną głupotę ze strony sztucznej inteligencji Google, która zasugerowała nałożenie kleju na pizzę, aby zapobiec zsuwaniu się sera; propozycja opierała się na wieloletnim żarcie z Reddita.

Kiedy ludzie popełniają błędy, mówi Ghani, jest nam łatwiej współczuć, bo rozpoznajemy, że ludzie nie są perfekcyjnymi bytami. Jednakże od maszyn oczekujemy poprawności. Nigdy nie powinniśmy wątpić w na przykład kalkulator. Sprawiłoby to, że trudno byłoby nam wybaczyć AI kiedy robi coś źle. Jeśli poświęcimy czas na zbadanie nie tylko procesów AI, ale także wadliwych procesów ludzkich leżących u podstaw zbiorów danych, na których zostało przeszkolone, możemy ulepszyć sztuczną inteligencję i, miejmy nadzieję, zastanowić się nad naszymi uprzedzeniami społecznymi i kulturowymi i pracować nad ich cofnięciem.

 

Jak zmierzyć się z wpływem na środowisko?

 

an illustration of a lightbulb planted in the ground

Źródło: Muhammad Bagus Prasetyo

 

AI ma problem z wodą—a właściwie z energią. Znaczna ilość ciepła jest produkowana przez energię wymaganą do zasilania narzędzi AI, których ludzie coraz częściej używają w życiu codziennym i zawodowym. To ciepło jest uwalniane do centrum danych, które dostarcza systemom AI obliczeniowe wsparcie i przestrzeń magazynową, której potrzebują do funkcjonowania. Jak szybko zauważa Shaolei Ren, profesor nadzwyczajny inżynierii elektrycznej i komputerowej na UC River-side, ochładzanie centrum danych wymaga ogromnej ilości wody, podobnej do ilości zużywanej przez dziesiątki tysięcy mieszkańców miast.

„Kiedy na przykład używasz wody do prysznica, może być ona ponownie użyta” powiedział Ren, którego badania skupione są na sposobach, aby sprawić, że AI będzie bardziej odpowiedzialne społecznie i środowiskowo. „Kiedy woda wyparowuje, żeby ochłodzić centrum danych, znika”. Ze względu na to, że ustawodawcy starają się wprowadzić regulacje i pociągnąć firmy do odpowiedzialności za zużycie energii i wody, Ren uważa, że ważne będzie, abyśmy jako jednostki i społeczeństwo lepiej zrozumieli rzeczywisty koszt zadawania pytań aplikacji takiej jak ChatGPT.

Nawet przed obecną popularnością AI, zużycie wody i energii w centrach danych stale się zwiększało. Według Google, w 2022 ich centra danych zużyły ponad pięć bilionów galonów wody, 20 procent więcej niż w 2021; Microsoft zużył 34 procent więcej wody w całej firmie w 2022 w porównaniu do 2021.

Sztuczna inteligencja może tylko spotęgować istniejące obciążenie zasobów, które centra danych tworzą w globalnych sieciach energetycznych: w 2026, zużycie prądu w centrach danych zwiększy się podwójnie w porównaniu do ilości z 2022, powiedziała Międzynarodowa Agencja Energii. Podczas gdy Stany Zjednoczone dopiero zaczynają przyglądać się środowiskowym kosztom centrów danych, komitet energetyczny Unii Europejskiej w Marcu przeforsował regulację skupiającą się na zwiększeniu transparentności operatorów centrów danych i ostatecznie zredukowaniu uzależnienia od paliw kopanych i marnotrawstwa zasobów.

„Wyjaśniam to w pojęciach, które zrozumie moje dziecko” powiedział Ren. „Jeśli zadasz jedno pytanie ChatGPT, zużywa on tyle samo energii co włączenie świata—w naszym domu jest to czterowatowa żarówka LED — przez godzinę. Jeśli prowadzisz konwersację z AI, takimi jak ChatGPT od 10 do 50 pytań i odpowiedzi, pochłonie to około 500 mililitrów wody albo standardową butelkę wody”.

 

Jak możemy powstrzymać sztuczną inteligencję przed potęgowaniem problemów z przeszłości?

 

an illustration of an AI chip in between humans' heads

Źródło: Muhammad Bagus Prasetyo

 

Kiedy AI odgarnia wszystkie dane stworzone przez ludzi, staje się lustrem odbijającym stereotypy, rasizm i nierówności, które kontynuują kształtowanie świata, mówi Nyalleng Moorosi, starsza badaczka w Distributed AI Research Institute. Te uprzedzenia, wyjaśnia, są często spowodowane brakiem różnorodności pośród ludzi zatrudnionych do budowania systemów i narzędzi AI, za bardzo polegających na zestawach danych, które priorytetyzują zachodnie koncepcje tego co jest, a co nie jest przydatną informacją.

Dzisiaj, znaczna większość wie, co znaczy mieć narzucone obce systemy, których część jest skutkiem kolonizacji. Moorosi wierzy, że AI ma potencjał na replikację tych systemów—priorytetyzując perspektywy i programy tych przy władzy podczas marginalizowania rdzennych mieszkańców i kulturowych wartości.

Zespoły zatrudniane przez firmy technologiczne mają zwykle martwe punkty, które nieuchronnie wbudowują w swoje narzędzia AI. Moorosi wierzy, że kluczem do zmiany kursu jest demokratyzacja AI: inkorporacja głosów ludzi, którzy mówią setkami języków i myślą na tysiące sposobów, które odchodzą od myśli Eurocentrycznej. Oznacza to przemieszczanie rozwoju AI z działu wielkich technologii do lokalnego poziomu, upoważniając deweloperów i inżynierów do dostosowania narzędzi do potrzeb i doświadczeń ich wspólnot. Moorosi uważa, że powstałe w ten sposób systemy byłyby pełniejsze szacunku pochodzenia ich stworzycieli. Firma Lelapa AI z siedzibą w RPA, założona w 2022 roku, niedawno zaprezentowała model uczenia się języków, który jest obecnie podstawą chatbota i innych innowacji skierowanych do użytkowników mówiących w języku suahili, joruba, xhosa, hausa lub zulu.

„Absolutnie musimy zbadać kwestię władzy. Nie możemy oczekiwać, że Googlersi czy ludzie pracujący w OpenAI nas zrozumieją. Nie możemy spytać Silikonowej Doliny o reprezentację ośmiu bilionów ludzi. Najlepszym sposobem jest zbudowanie systemów lokalnie”, mówi Moorosi. „Moją utopią AI jest to, że ludzie mają dostęp i odwagę do wdrażania AI w celu rozwiązywania własnych problemów”.

 

Dział: Technologia

Autor:
Neel Dhanesha i Charley Locke | Tłumaczenie: Bartłomiej Kapuściński – praktykant fundacji: https://fundacjaglosmlodych.org/praktyki/

Źródło:
https://www.nationalgeographic.com/science/article/ai-effects-questions-concerns

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Wymagane zalogowanie

Musisz być zalogowany, aby wstawić komentarz

Zaloguj się

INNE WIADOMOŚCI


NAJCZĘŚCIEJ CZYTANE