Louise Bruder nigdy nie zapomina twarzy. Jest to nie tylko przydatna umiejętność na imprezach, ale także pomogła jej w zrobieniu kariery
Jej praca w brytyjskiej firmie Yoti zajmującej się identyfikacją cyfrową polega na porównywaniu zdjęć na dokumencie tożsamości z przesłanym selfie w celu ustalenia, czy jest to ta sama osoba. Jednak Yoti, podobnie jak inne firmy zajmujące się identyfikacją, stoi w obliczu nowego zagrożenia - wykrywania tak zwanych deepfake'ów. Są to fałszywe obrazy tworzone za pomocą sztucznej inteligencji.

Louise Bruder. Fot. BBC
Louise powiedziała mi, że nie została jeszcze poproszona o rozpoznanie deepfake'ów w ramach swojej codziennej pracy, ale firma jest świadoma zagrożenia. Dlatego też aktywnie pracuje nad technologią, która pomoże je wykryć. Biorąc udział w stworzonym przez BBC teście Deepfake Quiz, zdobyła siedem na osiem punktów. "W oczach tych ludzi jest pustka, która sprawia, że nie wyglądają na prawdziwych" - mówi Louise.
Ben Colman jest szefem Reality Defender, amerykańskiej firmy, która ma na celu dostarczenie technologii do wykrywania deepfake'ów i uważa, że Louise może wkrótce mieć trudności z odróżnieniem prawdziwego człowieka od podróbki.

Ben Colman ostrzega, że technologia deepfake staje się coraz bardziej zaawansowana. Fot. BBC
"Powiedziałbym, że w ciągu ostatnich dziewięciu miesięcy nawet najlepsi eksperci stali się bezradni w kwestii odróżnienia tego co prawdziwe od zdjęć wygenerowanych przez sztuczną inteligencję. Do rozwiązania tego problem potrzebujemy specjalnego oprogramowania" - mówi.
Pan Colman zaznacza różnicę między naprawdę złożonymi deepfake'ami, które mogą być wykorzystywane przez państwo do szerzenia dezinformacji, a tym, co nazywa "tanimi podróbkami", w których przestępcy używają dostępnych od ręki oprogramowań AI. Co niepokojące, nawet tanie podróbki "nadal są wystarczająco dobre, aby oszukać ludzi, szczególnie w przypadku obrazów i dźwięku" - mówi. Nagrania wideo "są jednak nieco trudniejsze i wymagają znacznie więcej obliczeń". Rozwiązanie oferowane przez jego firmę może skanować i oznaczać wykrytą na obrazie, wideo lub audio ingerencję AI. Wśród klientów są rząd Tajwanu, NATO, organizacje medialne i duże banki. Podczas gdy to podróbki wideo lub obrazów częściej trafiają na pierwsze strony gazet, rośnie również liczba oszustw związanych wyłącznie z dźwiękiem. Na przykład przestępcy wysyłają nagrania głosowe, używając głosu danej osoby do powiedzenia takich rzeczy jak "Mamo, zgubiłem telefon, proszę wpłać pieniądze na to konto". Zbieranie nagrań z czyjegoś konta w mediach społecznościowych lub YouTube jest łatwym zadaniem, a zaledwie kilka sekund dźwięku wystarczy, aby sklonować głos i użyć go do stworzenia zdań, których dana osoba nigdy nie wypowiedziała. Niektóre ogólnodostępne programy pozwalają nawet "podkręcić" poziom stresu w głosie - technika ta była wykorzystywana do oszukiwania rodziców w prawdziwych przypadkach, gdy rodzice wierzyli, że ich dziecko zostało porwane.
Siwei Lyu jest profesorem na Uniwersytecie w Buffalo w USA. Przez wiele lat badała deepfake'i, a jej ostatecznym celem zawsze było opracowanie algorytmów pomagających w ich automatycznej identyfikacji i demaskowaniu. Zadaniem algorytmu jest wykrywanie drobnych różnic - oczu, które nie patrzą we właściwym kierunku lub, w przypadku sztucznie stworzonego głosu, braku oddechu. Prof. Lyu uważa, że należy pilnie rozwiązać ten problem, ostrzegając, że wideokonferencje mogą być kolejnym celem dla przestępców. "W niedalekiej przyszłości możesz być w trakcie spotkania na Zoomie i myśleć, że rozmawiasz ze mną, ale może to być tylko kopia. Ktoś może użyć mojego wizerunku i w moim miejscu wstawić deepfake’a”. Deepfake’i mogą również potencjalnie rozsiewać panikę i zamęt. W zeszłym roku fałszywy obraz eksplozji w pobliżu Pentagonu zalał media społecznościowe, podobnie jak podrobione zdjęcia Donalda Trumpa zakutego w kajdanki. Z kolei w styczniu Departament Sprawiedliwości stanu New Hampshire został zmuszony do wydania oświadczenia, w którym twierdził, że nagranie audio, w którym Joe Biden mówi mieszkańcom, by nie głosowali w prawyborach stanowych, było fałszywe.
Sigurdur Arnason prowadzi platformę do tworzenia muzyki na Islandii. Przed świętami Bożego Narodzenia został poproszony przez islandzki National Broadcasting Service o stworzenie skeczu muzycznego wykorzystującego deepfake ukochanego zmarłego islandzkiego komika o imieniu Hemmi Gunn do programu, który został wyemitowany w Sylwestra. "Pomyśleliśmy, że to będzie fajny projekt" - mówi. "Poprosiliśmy o pozwolenie rodzinę komika i stworzyliśmy własne modele AI". Skecz jednak nie tylko rozbawił. "Wywołał fale uderzeniowe w całym kraju", mówi Arnason. "Mówiło o tym całe radio, portale informacyjne i telewizja. Niektórzy członkowie rodziny nie byli zadowoleni, ponieważ było to tak realistyczne. Politycy zaczęli mówić o regulacjach dotyczących AI".

Stworzenie deepfake'owej wersji islandzkiego komika Hemmiego Gunna (w środku) wywołało burzę w jego kraju. Fot. BBC
Ważne jest, aby politycy i obywatele prowadzili takie rozmowy i debaty, uważa Christopher Doss, badacz z think tank Rand Corporation.
Niedawno przeprowadził badanie dotyczące deepfake'ów, które ujawniło, że im bardziej ludzie są narażeni na deepfake'i, tym mniej prawdopodobne jest, że poprawnie je zidentyfikują. Obawia się też, że wykorzystanie narzędzi AI do walki z zagrożeniem ze strony sztucznej inteligencji może być błędnym podejściem. "To po prostu stworzy rodzaj wyścigu zbrojeń między tymi, którzy próbują je wykryć, a tymi, którzy próbują uniknąć wykrycia" - mówi. "Algorytm odkryje jakiś defekt w deepfake’u, a następnie twórcy go poprawią i nieco ulepszą swoje metody". Według niego, właściwe rozwiązanie tego problemu będzie wymagało szkolenia ludzi w zakresie bardziej krytycznego podejścia do treści, w tym oglądania wszystkiego ze "zdrowym sceptycyzmem" i podwójnego sprawdzania źródeł. Może to oznaczać uczenie dzieci od najmłodszych lat, jak wykrywać fałszywe treści. "Największym wyzwaniem, na które nie mam rozwiązania, jest to, jak uczyć ogół populacji dorosłych" - mówi.

Christopher Doss twierdzi, że opinia publiczna musi być bardziej świadoma istnienia deepfake'ów. Fot. BBC
Pan Colman z Reality Defender uważa, że to na firmach, a nie na konsumentach, powinien spoczywać obowiązek tworzenia rozwiązań umożliwiających wykrywanie deepfake'ów. "Moja matka nie jest odpowiedzialna za rozpoznawanie problemów związanych z antywirusem" - podkreśla. Nie sądzi też, że powinna ponosić odpowiedzialność za wykrywanie deepfake'ów. "Media społecznościowe i platformy udostępniające treści online przyjmują podejście, że jeśli nie jesteśmy do tego zobowiązani, zrobimy absolutne minimum i przerzucimy odpowiedzialność na konsumentów, pozwalając im działać na własną rękę, oznaczając potencjalne użycie AI" - mówi. "Problem polega na tym, że to jak włożenie pasty do zębów z powrotem do tubki”. "Ludzie sygnalizują rzeczy dopiero wtedy, gdy zostały one zauważone milion razy i jest już za późno".
Wracając do Yoti, Louise Bruder mówi, że bez względu na to, jak dobra będzie sztuczna inteligencja w walce z deepfake'ami, zawsze będzie istniała potrzeba ludzkiej ingerencji, zapotrzebowanie na ludzi takich jak ona. "Sprawdzanie ludzi jest wymogiem dla wielu firm... i nie spodziewamy się, że to się zmieni, ponieważ daje to firmom dodatkową pewność".
Dział: Technologia
Autor:
Jane Wakefield | Tłumacz: Julia Ochodek