Google ostrzega, że Wielka Brytania ryzykuje pozostanie w tyle w wyścigu sztucznej inteligencji bez zwiększenia liczby centrów danych
Firma technologiczna apeluje do Partii Pracy o złagodzenie przepisów, które uniemożliwiają trenowanie modeli AI na materiałach objętych prawem autorskim.
Zdjęcie: Martin Godwin/The Guardian
Google ostrzega, że Wielka Brytania może zostać w tyle w globalnym wyścigu sztucznej inteligencji, jeśli rząd nie podejmie szybkich działań w zakresie budowy większej liczby centrów danych i umożliwienia firmom technologicznym korzystania z materiałów objętych prawem autorskim w ich modelach AI. Firma wskazuje na badania pokazujące, że Wielka Brytania zajmuje siódme miejsce w globalnym indeksie gotowości AI pod względem danych i infrastruktury, i wzywa do wprowadzenia szeregu zmian politycznych. Debbie Weinstein, dyrektor zarządzająca Google UK, stwierdziła, że rząd „dostrzega szansę” w AI, ale musi wprowadzić więcej polityk wspierających jej wdrażanie.
„Mamy wiele zalet i bogatą historię przywództwa w tej dziedzinie, ale jeśli nie podejmiemy proaktywnych działań, istnieje ryzyko, że zostaniemy w tyle” – powiedziała. Sztuczna inteligencja przeżywa globalny boom inwestycyjny po przełomowych osiągnięciach technologicznych, takich jak wprowadzenie chatbota ChatGPT przez amerykańską firmę OpenAI, oraz innych firm, w tym Google, która stworzyła potężny model AI o nazwie Gemini. Jednak projekty AI wspierane przez rząd stały się wczesnymi ofiarami cięć budżetowych wprowadzonych przez rząd Keira Starmera. W sierpniu Partia Pracy potwierdziła, że nie będzie realizować niezabezpieczonych finansowo zobowiązań w wysokości 800 milionów funtów na budowę superkomputera eksaskalowego – kluczowej infrastruktury dla badań nad AI – oraz dodatkowych 500 milionów funtów na AI Research Resource, które finansuje moc obliczeniową dla sztucznej inteligencji.
Zapytana o decyzję w sprawie superkomputera, Debbie Weinstein odniosła się do nadchodzącego rządowego „planu działań w zakresie AI”, opracowywanego pod kierunkiem przedsiębiorcy technologicznego Matta Clifforda. „Mamy nadzieję zobaczyć naprawdę kompleksowe podejście dotyczące inwestycji, które musimy poczynić w Wielkiej Brytanii” – powiedziała. Google przedstawiło swoje sugestie dotyczące polityki AI w Wielkiej Brytanii w dokumencie zatytułowanym „Odblokowanie potencjału AI w Wielkiej Brytanii”, który zostanie opublikowany w tym tygodniu. Firma zaleca w nim utworzenie „krajowej chmury badawczej”, czyli mechanizmu finansowanego ze środków publicznych, zapewniającego moc obliczeniową i dane – dwa kluczowe czynniki w budowie modeli AI, takich jak ChatGPT – dla startupów i środowisk akademickich.
Raport Google wskazuje, że Wielka Brytania „ma trudności z konkurowaniem z innymi krajami w zakresie inwestycji w centra danych” i z zadowoleniem przyjmuje zobowiązanie Partii Pracy do budowy większej liczby takich centrów w ramach przygotowań do wprowadzenia nowego projektu ustawy o planowaniu i infrastrukturze. Wśród innych rekomendacji zawartych w raporcie Google znajduje się utworzenie krajowej usługi rozwoju umiejętności, która pomogłaby pracownikom dostosować się do zmian wprowadzanych przez AI, a także szersze zastosowanie tej technologii w usługach publicznych. Raport wzywa również do zmian w brytyjskich przepisach dotyczących praw autorskich po tym, jak w tym roku porzucono próby opracowania nowego kodeksu regulującego wykorzystanie materiałów chronionych prawami autorskimi do trenowania modeli AI.
Dane z materiałów chronionych prawem autorskim, takich jak artykuły prasowe i prace naukowe, są postrzegane jako kluczowe dla modeli napędzających narzędzia takie jak chatboty, które są „trenowane” na miliardach słów umożliwiających im rozumienie tekstowych poleceń i przewidywanie odpowiednich odpowiedzi. Podobne problemy dotyczą modeli generujących muzykę lub obrazy. Dokument Google postuluje złagodzenie ograniczeń dotyczących praktyki znanej jako „text and data mining” (TDM), w której kopiowanie materiałów chronionych prawem autorskim jest dozwolone w celach niekomercyjnych, takich jak badania naukowe. Konserwatywny rząd wycofał plany pozwalające na TDM w celach komercyjnych w 2024 roku, w obliczu poważnych obaw zgłaszanych przez przemysły kreatywne i wydawców prasy.
„Nierozwiązana kwestia praw autorskich jest przeszkodą w rozwoju, a sposobem na jej usunięcie, z perspektywy Google, jest powrót do punktu, w którym rząd znajdował się w 2023 roku, kiedy to TDM (text and data mining) było dozwolone w celach komercyjnych” – powiedziała Debbie Weinstein. Raport wzywa również do wprowadzenia regulacji sprzyjających innowacjom, wskazując poparcie dla istniejącego systemu regulacyjnego, w którym nadzór nad AI jest sprawowany przez różne publiczne organy regulacyjne, takie jak Urząd ds. Konkurencji i Rynków (Competition and Markets Authority) oraz Biuro Komisarza ds. Informacji (Information Commissioner’s Office). „Zachęcamy rząd do dalszego polegania na istniejących regulacjach, zamiast tworzenia nowych” – dodała Weinstein.
Brytyjscy ministrowie pracują obecnie nad projektem konsultacji dotyczących ustawy o AI, która ma koncentrować się na uczynieniu obowiązującym prawnym porozumienia o dobrowolnym testowaniu modeli AI między rządem a firmami technologicznymi oraz na przekształceniu Instytutu Bezpieczeństwa AI w jednostkę działającą niezależnie, ale powiązaną z rządem. Rzecznik brytyjskiego rządu powiedział: „Nasz plan działań na rzecz wykorzystania potencjału AI, kierowany przez Matta Clifforda, zapewni odpowiednią infrastrukturę, umiejętności i dostęp do danych, aby firmy i usługi publiczne mogły w pełni wykorzystać jej możliwości. „Ale jednocześnie musimy zapewnić, że technologia rozwija się w sposób bezpieczny, aby wzmocnić zaufanie społeczne, dlatego wprowadzimy ustawodawstwo dotyczące twórców najbardziej zaawansowanych modeli”.
Dział: Technologia
Autor:
Dan Milmo | Tłumaczenie: Jakub Grubiński - praktykant fundacji: https://fundacjaglosmlodych.org/praktyki/