2023-12-11 15:21:59 JPM redakcja1 K

Sztuczna inteligencja wystraszyła ustawodawców

Przepisy Unii Europejskiej regulujące sztuczną inteligencję, które miały być pierwszymi na świecie, wbrew początkowym planom mogą nie zostać przyjęte do końca roku. Na decyzję ustawodawców wpłynęła zmiana agendy. Prawo, nad którym pracowano od 2019 r., jest przestarzałe ze względu na nagły rozwój generatywnej sztucznej inteligencji, która pojawiła się w tym roku. Jest to rodzaj sztucznej inteligencji, która grozi pozostawieniem ludzi dziesiątków zawodów bez środków do życia.

Fotografia: ShutterStock

 

Czym jest sztuczna inteligencja

Definicja sztucznej inteligencji, podobnie jak sam termin, zostały zaprezentowane w 1956 roku na letnim seminarium w Dartmouth College, zorganizowanym przez czterech amerykańskich naukowców: Johna McCarthy'ego, Marvina Lee Minsky'ego, Nathaniela Rochestera i Claude'a Shannona. Sztuczna inteligencja to zdolność systemów komputerowych do wykonywania funkcji intelektualnych i twórczych, które tradycyjnie uważa się za ludzkie.

Przed 2023 rokiem niewiele osób myślało o technologii sztucznej inteligencji, choć stawała się ona coraz mocniej zakorzeniona w naszym życiu. Wiele osób mogło zauważyć, że ich zdjęcia w telefonach są dyskretnie sortowane w folderach: rodzinne posiłki, podróże, na plaży, zwierzęta domowe. Telefony nauczyły się rozpoznawać kontekst zdjęć i umieszczać je we właściwym miejscu. A także rozpoznawać osoby na zdjęciu. To uczenie się jest mechanizmem sztucznej inteligencji.

To samo dzieje się na przykład, gdy strony internetowe wyświetlają użytkownikom reklamy lub polecają filmy lub wiadomości w oparciu o ich zainteresowania. Na przykład, jeśli ktoś odwiedza stronę o lotnictwie co tydzień, w końcu jego kanał informacyjny będzie zawierał coraz więcej tekstów na tematy związane z lotnictwem.

Ale to jest najprostsza rzecz. Dziedzina sztucznej inteligencji pokrywa się z wieloma innymi dziedzinami, w tym matematyką, statystyką, teorią prawdopodobieństwa, fizyką, przetwarzaniem sygnałów, uczeniem maszynowym, wizją komputerową, psychologią, lingwistyką i nauką o mózgu. Kwestie związane z odpowiedzialnością społeczną i etyką tworzenia sztucznej inteligencji przyciągają osoby zainteresowane filozofią.

Podstawą każdej sztucznej inteligencji jest proces znany jako uczenie się algorytmów, w którym program komputerowy otrzymuje ogromną ilość danych i zestaw instrukcji do przeanalizowania. Program zaczyna analizować dostępne informacje w poszukiwaniu wzorców. Człowiek jest zwykle zaangażowany w szkolenie programu. Jego zawód jest często nazywany - trener sztucznej inteligencji.

Banalny, ale obrazowy przykład. Do bazy danych sztucznej inteligencji załadowano 1000 zdjęć koni. Następnie program został poproszony o wybranie koni z tablicy miliona zdjęć. Program, ogólnie rzecz biorąc, poradził sobie, ale wśród wybranych zdjęć był tuzin zdjęć dużych psów i kilka krów. Zadaniem człowieka jest znalezienie tych zdjęć i poinformowanie maszyny, że popełniła błąd. Następnie maszyna musi "zrozumieć", co było nie tak na tych zdjęciach.

Po przeanalizowaniu tej samej bazy danych miliony razy, sztuczna inteligencja z czasem nabywa niezbędnych umiejętności, stając się coraz lepsza w wykonywanym zadaniu.

Rok 2023 był kluczowy dla rozwoju sztucznej inteligencji. W tym roku nastąpił przełom, a maszyny nauczyły się zastępować ludzi na wiele sposobów. Teraz mogą pisać teksty, rysować, tworzyć i wymyślać slogany, a nawet pisać kod komputerowy. Jednocześnie programy nauczyły się rozpoznawać ludzką mowę. Studenci zaczęli używać ich podczas pisania esejów. Zdarzają się nawet przypadki, gdy sędziowie sporządzają wyroki z pomocą sztucznej inteligencji. A w prestiżowym konkursie Sony World Photography Awards wygrało zdjęcie wygenerowane przez sieć neuronową. Niemiecki fotograf Boris Eldagsen (Boris Eldagsen) przyznał, że postanowił sprawdzić, czy jury rozpozna fałszywe zdjęcie. Nie rozpoznało. 

Jak działają chatboty

Najpopularniejszym rodzajem sztucznej inteligencji, który pojawił się w tym roku, są chatboty. BBC wyjaśnia, w jaki sposób one funkcjonują:

"Chatbot jest jak papuga, która może powtarzać słowa, które słyszy, a nawet w pewnym stopniu odnosić je do kontekstu, ale znaczenie tych słów (zakładając, że w ogóle rozróżnia poszczególne słowa) jest tylko z grubsza znane papudze. Chatboty robią mniej więcej to samo, tylko na znacznie bardziej wyrafinowanym poziomie - i wydaje się prawdopodobne, że wkrótce mogą całkowicie zmienić nasze relacje z językiem pisanym".

Chatboty należą do rodzaju sztucznej inteligencji znanego jako "duże modele językowe" i są szkolone na kolosalnych ilościach tekstu, zupełnie nie do pomyślenia dla ludzi. LLM (Large Language Models) mogą porównywać nie tylko pojedyncze słowa, ale całe zdania i analizować, w jakim kontekście określone słowa i frazy są używane w różnych fragmentach, przeszukując całą bazę danych dostępną dla algorytmu. 

Korzystając z tych miliardów porównań między słowami i frazami, może odczytać pytanie i wygenerować odpowiedź. Niesamowitą cechą dużych modeli językowych jest to, że mogą one uczyć się zasad gramatyki i samodzielnie określać znaczenie słów z kontekstu, bez pomocy człowieka.

Regulacje prawne sztucznej inteligencji 

W obliczu rosnącej popularności sztucznej inteligencji nie jest zaskoczeniem, że prawodawcy na całym świecie chcą regulować rozwój tej technologii, aby nie działała ona na szkodę ludzkości. To właśnie prawo UE zaproponowane po raz pierwszy w 2019 r. miało być pierwszą na świecie kompleksową regulacją dotyczącą sztucznej inteligencji, jeszcze bardziej ugruntowując pozycję bloku 27 państw jako globalnego wyznacznika trendów, pisze Associated Press.

Proces ten utknął jednak w martwym punkcie z powodu samych systemów leżących u podstaw usług sztucznej inteligencji ogólnego przeznaczenia, które nagle pojawiły się w 2023 roku. Duże firmy technologiczne sprzeciwiają się temu, co uważają za nadmierne regulacje, które hamują innowacje, podczas gdy europejscy prawodawcy chcą zapewnić dodatkowe zabezpieczenia dla zaawansowanych systemów sztucznej inteligencji, które te firmy rozwijają. W rezultacie wydaje się coraz bardziej prawdopodobne, że nowe prawo nie zostanie uchwalone przed przyszłorocznymi wyborami do Parlamentu Europejskiego.

Kiedy Komisja Europejska, organ wykonawczy UE, przedstawiła projekt w 2021 r., ledwo wspomniała o systemach sztucznej inteligencji ogólnego przeznaczenia, takich jak chatboty. Propozycja kategoryzacji systemów sztucznej inteligencji na cztery poziomy ryzyka - od minimalnego do niedopuszczalnego - była zasadniczo pomyślana jako przepisy dotyczące bezpieczeństwa produktowego. Bruksela chciała certyfikować informacje wykorzystywane przez algorytmy, podobnie jak w przypadku kontroli bezpieczeństwa kosmetyków, samochodów i zabawek.

Sytuacja zmieniła się jednak wraz z boomem na sztuczną inteligencję generatywną. Wzbudziło to obawy, że technologia ta może zostać wykorzystana do przeprowadzania cyberataków na dużą skalę lub tworzenia nowej broni biologicznej. Ryzyko to skłoniło prawodawców UE do zaostrzenia prawa. Francja, Niemcy i Włochy opowiedziały się jednak za samoregulacją w tym obszarze.

Zmiana stanowiska jest postrzegana przez wielu jako ruch mający na celu pomoc krajowym graczom, takim jak francuski startup Mistral AI i niemiecka firma Aleph Alpha.

Tymczasem grupa wpływowych informatyków opublikowała list otwarty, w którym ostrzega, że takie osłabienie ustawy o sztucznej inteligencji byłoby "historyczną porażką".

Sztuczna inteligencja jest "zbyt ważna, by jej nie regulować i zbyt ważna, by nie regulować jej dobrze" - powiedział w zeszłym tygodniu w Brukseli dyrektor ds. prawnych Google. Powiedział, że wyścig powinien polegać na lepszym uregulowaniu sztucznej inteligencji, a nie na napisaniu pierwszego prawa.

Stany Zjednoczone, Wielka Brytania, Chiny i globalne koalicje, takie jak G7, dołączyły do wyścigu o wypracowanie mechanizmów regulujących dla szybko rozwijającej się branży, sugerując potencjalne egzystencjalne zagrożenie, jakie generatywna sztuczna inteligencja stanowi dla ludzkości.

Przedstawiciele UE muszą jeszcze rozwiązać kilka innych kwestii spornych, w tym propozycję całkowitego zakazu publicznego rozpoznawania twarzy w czasie rzeczywistym. Kraje chcą wyjątku, aby organy ścigania mogły go używać do znajdowania zaginionych dzieci lub terrorystów, ale organizacje ochrony praw człowieka obawiają się, że w rzeczywistości stworzyłoby to podstawę prawną do inwigilacji.

Osobnym obszarem regulacji jest sztuczna inteligencja wojskowa. Już dziś systemy sztucznej inteligencji są aktywnie wykorzystywane w kompleksie wojskowo-przemysłowym. W szczególności w produkcji w pełni autonomicznej broni, systemów wywiadu i analizy danych, systemów naprowadzania (które pomagają dokładniej strzelać i wystrzeliwać pociski), symulatorów walki i bezzałogowych środków transportu. Na przykład drony pięć lat temu musiały być kontrolowane przez operatora. Dziś jednak same znajdują i atakują cele. Nawet małe i tanie drony wyrządzają znaczne szkody. Można je jednak połączyć w całą flotę powietrzną, a taka armada może atakować kilka celów jednocześnie lub jeden duży z różnych kierunków.

Skandal w OpenAl

Jednym z "trendsetterów" na rynku sztucznej inteligencji jest OpenAI, firma wspierana przez Microsoft. Powstał tam jeden z najbardziej zaawansowanych modeli sztucznej inteligencji, chatbot GPT-4. 

17 listopada rada dyrektorów OpenAI ogłosiła, że zwolniła jednego z założycieli firmy, Sama Altmana, ze stanowiska CEO i usunęła go z zarządu. Altman szybko przeniósł się do Microsoftu, a pracownicy OpenAI zagrozili, że odejdą za nim. Następnie firma szybko przywróciła Altmana. Dokonano również zmian w zarządzie.

Jak później dowiedział się Reuters, na krótko przed rezygnacją Altmana, kilku pracowników naukowych firmy napisało list do zarządu. List mówił o ważnym odkryciu w dziedzinie sztucznej inteligencji, które zdaniem naukowców może stać się zagrożeniem dla ludzkości. Media nie sprecyzowały, o jakie odkrycie chodzi. Według źródeł, list był jednym z powodów zwolnienia Altmana.

W szczególności niepokój może wzbudzić nowy model o nazwie Q* (Q-star). Jest to autonomiczny system, który będzie w stanie nauczyć się rozwiązywać dowolne zadania intelektualne równie dobrze jak człowiek, w tym zadania matematyczne. Nowy model był już w stanie poradzić sobie z zadaniami na poziomie szkoły podstawowej. Obecnie modele generatywne dobrze radzą sobie z tekstem, ale ich odpowiedzi na to samo pytanie mogą się znacznie różnić. Jednocześnie problemy matematyczne najczęściej mają tylko jedną poprawną odpowiedź. System będzie więc musiał nauczyć się rozumować, podsumowywać, analizować i rozumieć informacje jak człowiek. Oczekuje się, że w przyszłości taki system będzie w stanie zademonstrować coś podobnego do świadomości.

Altman, który powrócił do OpenAI, zaproponował utworzenie amerykańskiej lub globalnej agencji, która licencjonowałaby najpotężniejsze systemy sztucznej inteligencji. Wcześniej zasugerował, że OpenAI może opuścić Europę, jeśli nie będzie w stanie przestrzegać przepisów UE, ale szybko wycofał swoje komentarze.

Dział: Technologia

Autor:
Kirill Balberov | Tłumaczenie: Mateusz Wilczyński

Źródło:
https://www.rg-rb.de/iskusstvennyj-intellekt-napugal-zakonodatelej/

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Wymagane zalogowanie

Musisz być zalogowany, aby wstawić komentarz

Zaloguj się

INNE WIADOMOŚCI


NAJCZĘŚCIEJ CZYTANE