Naukowcy stworzyli wykrywacz sarkazmu oparty na sztucznej inteligencji
Twierdzą, że zdolność do wykrywania najniższej formy dowcipu może pomóc sztucznej inteligencji w bardziej naturalnej interakcji z ludźmi.
Naukowcy wytrenowali sieć neuronową na podstawie tekstu, dźwięku i treści emocjonalnych klipów wideo z amerykańskich sitcomów, w tym Friends. Fot. NBC/Getty Images
Nieważne, że może zdać egzamin adwokacki, przodować w medycznych testach, czytać opowiadania na dobranoc udając emocje, ale sztuczna inteligencja nie może równać się z niesamowitością ludzkiego umysłu, dopóki nie będzie mistrzem sarkazmu. Jednakże ta sztuka może być następną na liście oszałamiających możliwości technologii.
Naukowcy z Holandii zbudowali detektor, który może wykryć, kiedy stosowana jest najniższa forma dowcipu i najwyższa forma inteligencji. „Jesteśmy w stanie rozpoznać sarkazm w rzetelny sposób, a chcemy to udoskonalić” - powiedział Matt Coler z laboratorium technologii mowy na Uniwersytecie w Groningen. „Chcemy zobaczyć, jak daleko możemy się posunąć”.
W projekcie chodzi o coś więcej niż nauczenie algorytmów, że czasami nawet najbardziej wylewne komentarze nie mogą być traktowane dosłownie i muszą być interpretowane jako diametralne przeciwieństwo. Sarkazm przenika nasz dyskurs bardziej, niż moglibyśmy to przewidzieć, powiedział Coler, więc zrozumienie go jest kluczowe, jeśli ludzie i maszyny mają się płynnie komunikować.
„Jeśli zaczynasz zgłębiać ten temat, uświadamiasz sobie w jakim stopniu, jest częścią regularnej komunikacji” – kontynuował Coler. „Aktualnie porozumiewamy się z urządzeniami w bardzo dosłowny sposób, jakbyśmy rozmawiali z robotem i dokładnie tak jest, ale nie musi tak być”. Generalizując, ludzie potrafią szybko rozpoznać sarkazm, ale w tekście, gdzie nie ma tyle wskazówek, jest to trudniejsze niż w interakcji twarzą w twarz. Gdzie przekaz, ton i mimika twarzy zdradzają intencje rozmówcy. Gdy tworzono model sztucznej inteligenci odkryto wiele elementów, pozwalających odróżnić sarkazm od szczerości.
W pracy zaprezentowanej na wspólnej konferencji Amerykańskiego Towarzystwa Akustycznego i Kanadyjskiej Organizacji Akustycznej w Ottawie w czwartek. Xiyuan Gao doktorant w labolatorium, opisał, w jaki sposób grupa przeszkoliła sieć neuronową w zakresie treści tekstowych, dźwiękowych i emocjonalnych klipów wideo z amerykańskich sitcomów, takich jak „Przyjaciele” (Friends) i „Teoria wielkiego podrywu” (The Big Bang Theory). Baza danych, znana jako Mustard, została opracowana przez naukowców z USA i Singapuru, którzy przypisali zdaniom z programów telewizyjnych, odpowiednie etykiety, aby zbudować wykrywacz.
Jedną ze scen, na której trenowała sztuczna inteligencja, był daremny wysiłek Leonarda, by uciec z zamkniętego pokoju w Teorii wielkiego podrywu, co skłoniło Sheldona do obserwacji: „To zaszczyt oglądać twój umysł przy pracy”. W serialu Przyjaciele Ross zaprosił Rachel, by przyszła i dołączyła do Joeya i Chandlera w składaniu mebli, co skłoniło Chandlera do zachęcenia jej: „Tak, jesteśmy tym bardzo podekscytowani”.
Po treningu na tekście i dźwięku, wraz z punktacją odzwierciedlającą emocjonalną treść wypowiadanych słów przez aktorów, sztuczna inteligencja była w stanie wykryć sarkazm w nieetykietowanych rozmowach z sitcomów w prawie 75% przypadków. Dalsze prace wykorzystały dane zebrane wcześniej, aby jeszcze bardziej zwiększyć dokładność, ale badania te czekają na publikację.
Shekhar Nayak, inny badacz biorący udział w projekcie, powiedział, że oprócz zwiększenia płynności rozmów z asystentami AI, tę metodę można wykorzystać do wykrywania negatywnego tonu w języku, jak również do rozpoznania mowy nienawiści i przemocy.
Gao powiedział, że kolejnym usprawnieniem może być dodanie wskazówek wizualnych do danych treningowych sztucznej inteligencji, takich jak ruchy brwi i uśmiechy. Co rodzi pytanie, jak dokładny model będzie wystarczający? „Czy będziemy mieć maszynę, która jest w 100% dokładna?” - zapytał Gao. „Tego nie osiągają nawet ludzie”.
Coler dodaje, że zaznajomienie programów z tym, jak naprawdę mówią ludzie, powinno pomóc w komunikowaniu się z urządzeniami w bardziej naturalny sposób, ale zastanawia się, co się stanie, jeśli maszyny wykorzystają swoje nowo odkryte umiejętności i zaczną rzucać w nas sarkazmem. „Jeśli zapytam: ‘Masz czas na pytanie?’ A odpowiedź to: ‘Tak, jasne’, mogę się zastanawiać: ma czy nie ma?”.
Dział: Technologia
Autor:
Ian Sample | Guardian Tłumaczenie: Jakub Wyrwas