2024-09-24 17:54:54 JPM redakcja1 K

Jest rozwiązanie dla wypracowań wygenerowanych przez AI. Dlaczego z niego nie korzystamy?

„ChatGPT tego nie napisał i mogę to udowodnić”. Początek roku szkolnego to jednocześnie początek nowej dyskusji na temat roli generatywnej AI w szkołach.

Źródło: Frank Rumpenhorst/Getty Images

 

W przeciągu około trzech lat wypracowania przeszły drogę od bycia filarem edukacji szkolnej do o wiele mniej użytecznego narzędzia z jednego prostego powodu: ChatGPT. Szacunki, jak wielu uczniów korzysta z ChatGPT przy pisaniu wypracowań, są różne, ale jest to na tyle powszechne zjawisko, że nauczyciele musieli się przystosować.

Podczas, gdy generatywne AI ma wiele ograniczeń, wypracowania szkolne należą do kategorii, w której sztuczna inteligencja radzi sobie świetnie: w bazie treningowej AI znajduje się ogrom przykładów wypracowań na zadane tematy, jest ogromny popyt na takie wypracowania, a standardy uczniów co do jakości tekstu i riserczu nie są wysokie.

Aktualnie oszukiwanie za pomocą narzędzi AI w pisaniu wypracowań jest trudne do wykrycia. Szereg narzędzi reklamuje się, jako zdolne do wykrywania czy tekst został wygenerowany przez sztuczną inteligencję, ale nie są one wiarygodne. Ponieważ fałszywe oskarżenia uczniów o plagiat to poważna sprawa, te narzędzia musiałyby być niezwykle bezbłędne, aby spełniały swoje zadanie – a aktualnie po prostu nie są.

 

AI zostawia technologiczny odcisk palca

Jest jednak technologiczne rozwiązanie. W 2022 roku zespół OpenAI, kierowany przez badacza komputerów kwantowych, Scotta Aaronsona, opracował „znak wodny”, który sprawia, że tekst AI jest praktycznie nie do pomylenia – nawet jeżeli użytkownik pozmienia kilka słów lub poprzestawia tekst. Rozwiązanie to jest trochę technicznie skomplikowane, ale posłuchajcie, ponieważ jest także bardzo interesujące.

W swojej istocie to, w jaki sposób działa generowanie tekstu przez AI, to „zgadywanie” szeregu możliwych kolejnych tokenów na podstawie tego, co do tej pory pojawiło się w tekście. Aby zapobiec zbytniej powtarzalności i przewidywalności, modele AI nie zgadują tylko najbardziej prawdopodobnego tokenu, ale zawierają także element losowości, który poza faworyzowaniem „najprawdopodobniejszego” uzupełnienia tekstu, czasem wybiera także ten mniej prawdopodobny.

Zostawienie „znaku wodnego” dzieje się na tym etapie. AI, zamiast generować następny token na podstawie losowości, używa nielosowego procesu: faworyzuje następny token, który otrzymał wysoki wynik w wewnętrznym „systemie punktacji” wymyślonym przez OpenAI. AI może na przykład delikatnie faworyzować słowa z literą „v”, na tyle, że tekst wygenerowany będzie miał o 20 procent więcej liter „v” w porównaniu do tekstu napisanego przez człowieka (to tylko przykład, wewnętrzne punktowanie jest o wiele bardziej skomplikowane). Czytelnik zazwyczaj nie zauważyłby tego gołym okiem.

Tekst ze znakiem wodnym nie będzie na pierwszy rzut oka różnił się od zwyczajnego tekstu wytworzonego przez AI. Dla OpenAI sprawa byłaby jednak bardzo prosta – znając ukryty system punktacji, jest w stanie ocenić czy konkretny tekst uzyskał wyższy wynik punktowy niż tekst napisany przez człowieka. Jeżeli, na przykład, system punktacji opierałby się na moim poprzednim przykładzie litery „v”, można by przepuścić tekst przez program do weryfikacji i zobaczyć, że ma około 90 liter „v” na 1200 słów, a to więcej niż średnia częstotliwość użycia „v”. To sprytne, technicznie zaawansowane rozwiązanie dla trudnego problemu, a prototyp OpenAI działa już od dwóch lat.

Więc gdybyśmy chcieli rozwiązać problem tekstu AI, podszywającego się pod tekst napisany przez człowieka, jest rozwiązanie. Ale OpenAI ani nikt inny w branży nie udostępnił swojego systemu nadawania znaków wodnych. Dlaczego nie?

 

Wszystko opiera się na konkurencji

Gdyby OpenAI – i tylko OpenAI – wypuściło swój system nadawania znaków wodnych w ChatGPT, ułatwiając stwierdzenie, kiedy tekst jest wygenerowany przez AI, nie miałoby to absolutnie żadnego wpływu na popełnianie plagiatów przez uczniów. Wieść szybko by się rozniosła i wszyscy przerzuciliby się po prostu na jedną z innych dostępnych opcji AI: Llamę Mety, Claude'a Anthropic czy Geminiego Google'a. Plagiat wciąż by trwał, a OpenAI po prostu straciłoby wielu ze swoich użytkowników. Więc to, że zostawiają oni swój system nadawania znaków wodnych dla siebie, wcale nie szokuje.

W takiej sytuacji może wydawać się, że odpowiednie będzie podjęcie działań przez organy regulujące. Gdyby od każdego systemu generatywnego AI wymagano pozostawiania znaku wodnego, nie byłaby to niekorzystna przewaga. To myśl, która stała za przedstawionym w Zgromadzeniu Stanowym Kalifornii w tym roku projektem ustawy, znanym także jako Kalifornijskie standardy dotyczące pochodzenia treści cyfrowych (ang. California Digital Content Provenance Standards), który wymagałby od dostawców usług generatywnego AI, umożliwienia wykrycia jego użycia, a także zaznaczenia użycia generatywnego AI oraz usunięcia zwodniczych treści. OpenAI popiera ten projekt ustawy – nic dziwnego, są jedynym znanym dostawcą generatywnego AI, który ma system nadający znak wodny. Ich konkurencja jest w większości przeciwna.

Zasadniczo jestem za wymogiem dodawania jakiegoś rodzaju znaku wodnego dla treści wygenerowanych. AI może być niesamowicie przydatne, ale jego produktywne zastosowania nie wymagają udawania człowieka. Nie wydaje mi się także, że rząd powinien być tym, który zakaże gazetom zastąpienia dziennikarzy AI, ale nie chciałabym, żeby media podawały błędne informacje czytelnikom, co do tego czy to, co właśnie czytają, zostało napisane przez człowieka.

Pomimo tego, że chciałabym pewnego rodzaju obligacji, co do nakładania znaków wodnych, nie jestem pewna, czy to możliwe. Najlepsze z „otwartych” modeli sztucznej inteligencji, które zostały wypuszczone (jak najnowsza Llama) – modele, które można uruchomić samodzielnie na własnym komputerze – są bardzo wysokiej jakości, na pewno wystarczająco dobre do wypracowań uczniowskich. Już powstały i nie ma żadnego sposobu, żeby cofnąć czas i dodać do nich znaki wodne, ponieważ ktokolwiek może używać aktualnych wersji, bez względu na to, jakie aktualizacje zostaną wprowadzone w przyszłości. To jeden z powodów, dlaczego mam mieszane uczucia co do otwartych modeli. Pozwalają na gigantyczną ilość kreatywności, badań i odkryć, ale nie pozwalają także na wprowadzenie wszelkiego rodzaju zdroworozsądkowych materialnych środków zapobiegających podszywaniu się pod inne osoby lub wykorzystywaniu seksualnym dzieci, które w przeciwnym razie naprawdę chcielibyśmy zastosować.

Pomimo tego, że dodawanie znaków wodnych jest możliwe, nie wydaje mi się, że możemy na nie liczyć, co znaczy, że sami jako społeczeństwo będziemy musieli znaleźć rozwiązanie dla wszechobecnych, łatwo dostępnych treści wygenerowanych przez AI. Nauczyciele już przechodzą na wymóg pisania wypracowań w klasach, a także wprowadzają inne środki, aby ograniczyć oszukiwanie uczniów. Prawdopodobnie zobaczymy także odejście od esejów rekrutacyjnych na studia – i szczerze mówiąc, to dobra zmiana, bo te zapewne nigdy nie były dobrym sposobem na dobór studentów.

Pomimo tego, że nie będę płakać za esejami rekrutacyjnymi i szczerze wierzę, że nauczyciele są w stanie znaleźć lepsze sposoby na ocenianie uczniów, zauważam pewne niepokojące tendencje w całej tej sprawie. Istniał prosty sposób na wykorzystanie zalet sztucznej inteligencji bez oczywistych wad, takich jak podszywanie się pod inne osoby i plagiat, jednak rozwój sztucznej inteligencji nastąpił tak szybko, że społeczeństwo po prostu pozwoliło, nadarzającej się okazji przepaść. Poszczególne laboratoria mogłyby to zrobić, ale tego nie zrobią, ponieważ byłaby to dla nich niekorzystna przewaga konkurencyjna – i prawdopodobnie nie ma dobrego sposobu, aby zmusić do tego wszystkich.

W debacie na temat plagiatu w szkołach, stawka jest niska. Ale ta sama dynamika, przeniesiona na debatę na temat znakowania wodnego AI – gdzie ekonomiczne pobudki powstrzymują firmy przed samodzielnym wprowadzaniem regulacji, a tempo zmian zatrzymuje zewnętrzne organy ustawodawcze przed wkroczeniem do akcji, nim będzie za późno – wydaje się pozostać taka sama, a stawka będzie tylko rosła.

Dział: Technologia

Autor:
Kelsey Piper I Tłumaczenie: Karolina Świder – praktykantka fundacji: https://fundacjaglosmlodych.org/praktyki/

Źródło:
https://www.vox.com/future-perfect/370419/chatgpt-schools-ai-cheating-plagiarism-detection

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Wymagane zalogowanie

Musisz być zalogowany, aby wstawić komentarz

Zaloguj się

INNE WIADOMOŚCI


NAJCZĘŚCIEJ CZYTANE