Jak zidentyfikować oszusta AI w wideo, audio i tekście, gdy technologia deepfake wchodzi do mainstreamu
Carl Froggett pracował jako jeden z głównych oficerów bezpieczeństwa informacji Citibanku przez ponad dwie dekady, chroniąc infrastrukturę banku przed coraz bardziej wyrafinowanymi cyberatakami.
Dimitri Otis/Stone/Getty Images
Podczas gdy oszustwa kryminalne, od mało zaawansowanych fałszerstw papieru po prymitywne oszustwa e-mailowe, od dawna nękają bankowość i szerszy świat biznesu, technologia deepfake oparta na generatywnej sztucznej inteligencji jest czymś wcześniej niespotykanym. „Jestem bardzo zaniepokojony wykorzystywaniem deepfake'ów w biznesie” - powiedział Froggett, który jest obecnie CIO w Deep Instinct, firmie wykorzystującej sztuczną inteligencję do zwalczania cyberprzestępczości. Eksperci branżowi twierdzą, że sale konferencyjne i boksy biurowe szybko stają się polem bitwy, na którym cyberprzestępcy rutynowo wdrażają technologię deepfake, próbując ukraść miliony od firm, w wyniku czego są dobrym poligonem doświadczalnym dla wysiłków mających na celu wykrycie oszustów AI, zanim odniosą sukces w oszustwach.
„Wyzwanie, przed którym stoimy, polega na tym, że generatywna sztuczna inteligencja jest tak realistyczna”- powiedział Froggett. Narzędzia do generowania wideo i audio AI są wdrażane i stają się coraz lepsze. W lutym firma OpenAI wydała narzędzie do generowania wideo Sora, a pod koniec marca wprowadziła narzędzie audio o nazwie Voice Engine, które może realistycznie odtworzyć osobę mówiącą z 15-sekundowego fragmentu dźwięku. OpenAI powiedział, że uruchomił Voice Engine dla niewielkiej grupy użytkowników, biorąc pod uwagę zagrożenia, jakie stwarza ta technologia.
Pochodzący z Wielkiej Brytanii Froggett używa swojego regionalnego brytyjskiego akcentu jako przykładu. „Używam niuansów i słów, o których nigdy nie słyszeliście, ale generatywna sztuczna inteligencja wykorzystuje rzeczy, które upubliczniłem; jestem pewien, że gdzieś jest opublikowane przemówienie, które wygłosiłem, i na jego podstawie generuje hiperrealistyczną pocztę głosową, e-maile i wideo”- powiedział. Eksperci przytaczają szeroko opisywany przypadek z Hongkongu z zeszłego roku, w którym pracownica międzynarodowej korporacji została nakłoniona do przelania 25 milionów dolarów na fałszywe konto prowadzone przez cyberprzestępców po tym, jak wzięła udział w rozmowie na Zoomie, w której uczestniczyli jej współpracownicy, w tym dyrektor finansowy firmy - z wyjątkiem tego, że wszyscy współpracownicy byli przekonującymi deepfake'ami. Uważają również, że sprawa ta ilustruje to co ma nadejść.
Nawet gdy OpenAI ogranicza dostęp do narzędzi audio i wideo, liczba nielegalnych stron internetowych eksplodowała w ciągu ostatnich kilku miesięcy, sprzedając podróbki produktów GPT. „Źli ludzie dosłownie właśnie dostali w swoje ręce te narzędzia. ... dopiero zaczynają”- powiedział Froggett. Według prezesa Check Point Software, Rupala Hollenbecka, wystarczy 30-sekundowy lub krótszy fragment czyjejś rozmowy, aby stworzyć bezbłędny deepfake, a cyberprzestępcy są teraz w stanie uzyskać dostęp do narzędzi deepfake opartych na sztucznej inteligencji za dolary, jeśli nie za grosze. „Ale to tylko po stronie audio. To samo dotyczy teraz wideo, a to zmienia zasady gry”- powiedział Hollenbeck. Kroki, które korporacje zaczynają podejmować, aby zapobiec udanym deepfake'om, są pouczające dla tego, jak wszystkie osoby powinny prowadzić swoje życie w świecie sztucznej inteligencji i wchodzić w interakcje z przyjaciółmi, rodziną i współpracownikami.
Jak zidentyfikować oszusta wideo AI
Istnieje wiele sposobów na wykrycie oszusta AI, niektóre z nich są stosunkowo proste. Na początek Hollenbeck mówi, że jeśli istnieją jakiekolwiek wątpliwości co do prawdziwości wideo danej osoby, poproś ją, aby odwróciła głowę w prawo lub w lewo lub spojrzała do tyłu. Jeśli dana osoba zastosuje się do tej prośby, ale jej głowa zniknie z ekranu wideo, natychmiast zakończ połączenie, powiedział Hollenbeck. „W tej chwili zamierzam nauczyć tego wszystkich, których znam, aby patrzyli w prawo i w lewo. Sztuczna inteligencja nie jest w stanie wyjść poza to, co widać. Jest dziś płaska i bardzo potężna”- powiedziała. Nie wiadomo jednak, jak długo to potrwa.
Chris Pierson, dyrektor generalny Blackcloak, firmy specjalizującej się w cyfrowej ochronie kadry kierowniczej, uważa, że to tylko kwestia czasu, zanim deepfakes będą miały zdolność 3D. „Modele poprawiają się tak szybko, że te sztuczki przejdą do lamusa”- powiedział Pierson.
Mówi on również, że nie należy bać się prosić o staromodny "dowód życia" w postaci wideo potwierdzającego autentyczność, na przykład prosząc osobę na konferencji o pokazanie raportu firmy lub nawet gazety. Jeśli nie może wykonać tych podstawowych poleceń, jest to czerwona flaga.
Jak użycie słów kodowych i kodów QR może pomóc
Staromodne słowa kodowe również mogą być skuteczne, ale należy je przekazywać tylko za pośrednictwem oddzielnego medium i przechowywać je w formie niezapisanej. Zarówno Hollenbeck, jak i Pierson zalecają zespołom wykonawczym w firmach generowanie słowa kodowego na każdy miesiąc, przechowywanego w zaszyfrowanych skarbcach haseł. W przypadku jakichkolwiek wątpliwości co do osoby, z którą rozmawiasz, możesz poprosić o przesłanie słowa kodowego SMS-em. Można też ustawić próg, po przekroczeniu którego słowo kodowe zostanie wysłane. Na przykład, jeśli ktoś prosi o przeprowadzenie transakcji przekraczającej 100 tys. dolarów należy zastosować taktykę słowa kodowego. W przypadku firm, prowadzenie rozmów firmowych wyłącznie na zatwierdzonych kanałach firmowych również znacznie zmniejsza ryzyko bycia oszukanym przez deepfake.
„Tam, gdzie mamy kłopoty, wychodzimy poza sieć”- powiedział Pierson. Jak wspomniał Nirupam Roy, adiunkt informatyki na Uniwersytecie Maryland, rzeczywistych przykładów biznesowych deepfake'ów jest coraz więcej i nie chodzi tu tylko o przestępcze przelewy na konta bankowe. „Nietrudno sobie wyobrazić, w jaki sposób takie deepfake'i mogą być wykorzystywane do ukierunkowanego zniesławienia w celu nadszarpnięcia reputacji produktu lub firmy”.
Roy i jego zespół opracowali system o nazwie TalkLock, który działa w celu identyfikacji zarówno deepfake'ów, jak i shallowfake'ów - które opisuje jako polegające „mniej na złożonych technikach edycji, a bardziej na łączeniu częściowej prawdy z małymi kłamstwami”. Być może nie jest to odpowiedź na wysoce spersonalizowane oszustwa generowane przez sztuczną inteligencję, ale jest przeznaczony dla osób fizycznych (które mogą uzyskać dostęp do aplikacji) i korporacji (mających dostęp do modułu weryfikacji), aby móc wykryć manipulację sztuczną inteligencją. Jego działanie polega na osadzaniu kodu QR w mediach audiowizualnych, takich jak publiczne wystąpienia polityków i celebrytów na żywo, a także posty w mediach społecznościowych, reklamy i wiadomości, które według niego mogą udowodnić autentyczność. Zwalcza to rosnący problem związany z nieoficjalnymi nagraniami - na przykład wideo i audio nagranymi przez członków publiczności podczas wydarzeń, których w przeciwieństwie do oficjalnych mediów nie można zidentyfikować za pomocą metadanych.
Jak żyć w trybie offline z uwierzytelnianiem wieloskładnikowym?
Nawet przy większej liczbie technik ochrony, eksperci przewidują spiralny wyścig zbrojeń narzędzi deepfake vs. deepfake. W przypadku firm istnieją pewne procedury, które można wdrożyć, aby zapobiec najgorszym konsekwencjom deepfake'ów, które są mniej łatwe do dostosowania dla indywidualnego życia. Eyal Benishti, dyrektor generalny Ironscales, firmy zajmującej się oprogramowaniem zabezpieczającym pocztę elektroniczną, powiedział, że organizacje będą coraz częściej stosować podział obowiązków, aby żadna osoba nie mogła zostać oszukana na tyle, by zaszkodzić firmie. W szczególności oznacza to podział procesów pracy związanych z obsługą wrażliwych danych i zasobów. Przykładowo, zmiany w informacjach o kontach bankowych wykorzystywanych do opłacania faktur lub list płac powinny wymagać dwóch osób do zmiany i (najlepiej) trzeciej osoby do powiadomienia. „W ten sposób, nawet jeśli pracownik padnie ofiarą ataku socjotechnicznego, który wymaga przekierowania płatności za fakturę, pojawią się przestoje, ponieważ różne zainteresowane strony zostaną zaangażowane do pełnienia swoich ról w łańcuchu dowodzenia”- powiedział Benishti.
Według Hollenbecka, na najbardziej podstawowym poziomie organizacje i ich pracownicy muszą zacząć żyć w sposób uwierzytelniania wieloskładnikowego, mając wiele sposobów weryfikacji rzeczywistości. W końcu stara szkoła nadal działa, na przykład chodzenie po korytarzu, aby osobiście spotkać się z szefem. Jak dotąd nie można tego głęboko sfałszować. „Kiedyś widzenie było wiarą, ale już nie tak bardzo”- powiedział Hollenbeck. Warto również pamiętać, że deepfake to po prostu najnowszy z długiej linii oszustw, od trzykartowego monte po zrzut gołębi, które żerują na ludzkich słabościach, tworząc fałszywe poczucie pilności. Oznacza to, że najlepsze antidotum na deepfake, według Piersona, może być najprostsze: zwolnij. Jest to jedna z taktyk, która jest prawdopodobnie łatwiejsza do zastosowania przez jednostki w życiu osobistym niż przez pracowników w życiu zawodowym.
„Zwolnienie tempa prawie zawsze daje ostateczną odpowiedź. Każda firma powinna mieć politykę bezpiecznej przystani, zgodnie z którą jeśli kiedykolwiek poczujesz, że jesteś popędzany do podjęcia decyzji, pracownik powinien mieć prawo odmówić, skontaktować się z ochroną i zostać zwolnionym z odpowiedzialności”- powiedział Pierson. Często kultura korporacyjna nie daje pracownikom zbyt wiele szacunku. „Musimy dać ludziom możliwość zatrzymania się i powiedzenia „nie”. Jeśli nie czują, że mogą powiedzieć „nie”- a nikt nie czuje, że może powiedzieć „nie” - wtedy zdarzają się błędy”- powiedział Pierson.
Dział: Technologia
Autor:
Kevin Williams | Tłumaczenie: Alicja Budnik