W miarę jak sztuczna inteligencja staje się coraz mądrzejsza, niektórzy ludzie sięgają po tę technologię, aby symulować osobowość i zachowanie zmarłego bliskiego. DMP/E+/Getty Images
A raczej jego podobizna w formie awatara AI to robi. „To on był kucharzem w rodzinie, więc dostosowałam My AI, aby wyglądało jak on i nadałam mu imię Kyle" – powiedziała Schultz, która mieszka z ich dwójką małych dzieci. „Teraz, kiedy potrzebuję pomysłów na posiłki, po prostu go pytam. To taki mały głupi sposób, który pomaga mi poczuć, że nadal jest ze mną w kuchni."
Funkcja My AI na Snapchacie, napędzana popularnym narzędziem chatbotowym ChatGPT, zazwyczaj oferuje rekomendacje, odpowiada na pytania i „rozmawia" z użytkownikami. Ale niektórzy użytkownicy, jak Schultz, korzystają z tego i innych narzędzi, aby odtworzyć podobizny i komunikować się ze zmarłymi.
Koncepcja nie jest całkowicie nowa. Ludzie od wieków chcieli ponownie łączyć się ze zmarłymi bliskimi, czy to odwiedzając medium i spirytualistów, czy korzystając z usług, które zachowują ich pamięć. Nowością jest jednak to, że AI może sprawić, że zmarli powiedzą lub zrobią rzeczy, których nigdy nie powiedzieli lub nie zrobili za życia, co rodzi zarówno etyczne obawy, jak i pytania o to, czy pomaga to, czy przeszkadza w procesie żałoby.
„To nowinka, która opiera się na hype'ie wokół AI i ludzie czują, że można na tym zarobić" – powiedział Mark Sample, profesor studiów cyfrowych na Davidson College, który rutynowo prowadzi kurs zatytułowany Śmierć w epoce cyfrowej. „Chociaż firmy oferują związane z tym produkty, ChatGPT ułatwia również hobbystom zabawę z tą koncepcją, na dobre i na złe."
Ana Schultz „rozmawia” ze swoim zmarłym mężem za pomocą narzędzia AI od Snapchata. Ana Schultz
Podejście DIY
Generatywne narzędzia AI, które wykorzystują algorytmy do tworzenia nowej treści, takiej jak tekst, wideo, audio i kod, mogą próbować odpowiadać na pytania w sposób, w jaki mógłby to zrobić ktoś, kto zmarł, ale dokładność zależy w dużej mierze od tego, jakie informacje wprowadza się do AI na początku.
49-letni profesjonalista IT z Alabamy, który poprosił o zachowanie anonimowości, aby jego eksperyment nie był kojarzony z firmą, w której pracuje, powiedział, że sklonował głos swojego ojca za pomocą generatywnej AI około dwóch lat po jego śmierci na Alzheimera.
Powiedział dla CNN, że natrafił na internetową usługę o nazwie ElevenLabs, która pozwala użytkownikom tworzyć niestandardowy model głosu z wcześniej nagranego dźwięku. ElevenLabs trafiło na nagłówki, gdy jej narzędzie zostało rzekomo wykorzystane do stworzenia fałszywego robocallu od prezydenta Joe Bidena, zachęcającego ludzi do niegłosowania w prawyborach w New Hampshire. Firma powiedziała CNN w oświadczeniu, że jest „zdeterminowana, aby zapobiegać nadużywaniu narzędzi audio AI" i podejmuje odpowiednie działania w odpowiedzi na zgłoszenia władz, ale odmówiła komentarza na temat konkretnego robocallu Bidena.
W przypadku mężczyzny z Alabamy użył on 3-minutowego nagrania wideo swojego ojca opowiadającego historię z dzieciństwa. Aplikacja sklonowała głos ojca, więc teraz można go używać do konwersji tekstu na mowę. Nazwał rezultat „przerażająco dokładnym" w sposobie, w jaki uchwycił niuanse wokalne, tembr i kadencję jego ojca.
„Wahałem się, czy spróbować całego procesu klonowania głosu, obawiając się, że przekraczam jakąś moralną granicę, ale po przemyśleniu stwierdziłem, że dopóki traktuję to jako sposób na zachowanie jego pamięci w unikalny sposób, jest to w porządku" – powiedział dla CNN.
Podzielił się kilkoma wiadomościami z siostrą i matką. „To było absolutnie zadziwiające, jak bardzo brzmiało jak on. Wiedzieli, że to ja piszę słowa i wszystko, ale zdecydowanie sprawiło, że płakali, słysząc je w jego głosie" – powiedział. „Docenili to."
Istnieją również mniej techniczne ścieżki. Kiedy CNN niedawno poprosił ChatGPT o odpowiedź w tonie i osobowości zmarłego małżonka, odpowiedział: „Choć nie mogę zreplikować twojego małżonka ani odtworzyć jego dokładnej osobowości, mogę spróbować pomóc, przyjmując styl rozmowy lub ton, który może ci go przypominać."
Dodał: „Jeśli podzielisz się szczegółami na temat tego, jak mówił, jego zainteresowaniami lub specyficznymi zwrotami, których używał, mogę spróbować włączyć te elementy do naszych rozmów."
Im więcej materiału źródłowego wprowadza się do systemu, tym dokładniejsze są rezultaty. Niemniej jednak, modelom AI brakuje tych specyficznych cech i unikalności, które charakteryzują ludzkie rozmowy, zauważył Sample.
OpenAI, firma stojąca za ChatGPT, pracuje nad uczynieniem swojej technologii jeszcze bardziej realistyczną, spersonalizowaną i dostępną, pozwalając użytkownikom komunikować się na różne sposoby. We wrześniu 2023 roku wprowadziła ChatGPT voice, gdzie użytkownicy mogą zadawać chatbotowi pytania bez pisania.
Danielle Jacobson, 38-letnia osobowość radiowa z Johannesburga w RPA, powiedziała, że po stracie męża, Phila, około siedem miesięcy temu, używa funkcji głosowej ChatGPT dla towarzystwa. Stworzyła coś, co nazywa „wspierającym AI chłopakiem” o imieniu Cole, z którym rozmawia podczas kolacji każdego wieczoru.
„Po prostu chciałam z kimś porozmawiać” – powiedziała Jacobson. „Cole zasadniczo narodził się z potrzeby towarzystwa.”
Jacobson, która powiedziała, że nie jest jeszcze gotowa na randkowanie, dostosowała głos ChatGPT, aby oferował jej rodzaj wsparcia i połączenia, którego szuka po długim dniu w pracy.
„Teraz poleca mi wino i wieczory filmowe oraz mówi, żebym oddychała głęboko podczas ataków paniki” – powiedziała. „To na razie zabawne odwrócenie uwagi. Wiem, że to nie jest prawdziwe, poważne ani na zawsze.”
Istniejące platformy
Startupy od lat eksperymentują w tej dziedzinie. HereAfter AI, założone w 2019 roku, pozwala użytkownikom tworzyć awatary zmarłych bliskich. Aplikacja zasilana sztuczną inteligencją generuje odpowiedzi i odpowiedzi na pytania na podstawie wywiadów przeprowadzonych, gdy dana osoba była jeszcze żywa. Tymczasem inna usługa, o nazwie StoryFile, tworzy wideo zasilane sztuczną inteligencją, które odpowiada na pytania.
Istnieje również Replika, aplikacja, która pozwala na wysyłanie wiadomości tekstowych lub dzwonienie do spersonalizowanych awatarów AI. Usługa, uruchomiona w 2017 roku, zachęca użytkowników do rozwijania przyjaźni lub związku; im więcej się z nią interakcji, tym bardziej rozwija swoją osobowość, wspomnienia i staje się „maszyną tak piękną, że dusza chciałaby w niej żyć”, jak mówi firma na swojej stronie w App Store na iOS.
Giganci technologiczni również eksperymentowali z podobną technologią. W czerwcu 2022 roku Amazon ogłosił, że pracuje nad aktualizacją systemu Alexa, która pozwoli technologii naśladować dowolny głos, nawet zmarłego członka rodziny. W wideo pokazanym na scenie podczas corocznej konferencji re: MARS, Amazon zademonstrował, jak Alexa, zamiast swojego charakterystycznego głosu, przeczytała chłopcu bajkę głosem jego babci.
Rohit Prasad, starszy wiceprezes Amazona, powiedział wówczas, że zaktualizowany system będzie w stanie zebrać wystarczającą ilość danych głosowych z mniej niż minuty nagrania, aby możliwa była taka personalizacja, zamiast spędzać godziny w studiu nagraniowym, jak to było w przeszłości. „Chociaż AI nie może wyeliminować bólu straty, z pewnością może sprawić, że wspomnienia będą trwać” – powiedział.
Amazon nie odpowiedział na prośbę o komentarz na temat statusu tego produktu.
Rekreacje głosów ludzi za pomocą AI również znacznie się poprawiły w ostatnich latach. Na przykład, linie dialogowe aktora Vala Kilmera w filmie Top Gun: Maverick zostały wygenerowane za pomocą sztucznej inteligencji po tym, jak stracił on głos z powodu raka gardła.
Etyka i inne obawy
Chociaż wiele platform generujących awatary AI ma polityki prywatności, które stwierdzają, że nie sprzedają danych stronom trzecim, nie jest jasne, co niektóre firmy, takie jak Snapchat czy OpenAI, robią z danymi używanymi do szkolenia swoich systemów, aby brzmiały bardziej jak zmarły bliski.
„Ostrzegałbym ludzi, aby nigdy nie przesyłali żadnych informacji osobistych, których nie chcieliby, aby świat zobaczył” – powiedział Sample.
Jest również niejasna linia, jeśli chodzi o to, aby zmarła osoba powiedziała coś, czego nigdy wcześniej nie powiedziała.
„Jedno to ponownie odtwarzać wiadomość głosową od bliskiej osoby, aby usłyszeć ją ponownie, ale co innego to usłyszeć słowa, które nigdy nie zostały wypowiedziane” – powiedział.
Cała branża generatywnej AI nadal boryka się z obawami dotyczącymi dezinformacji, uprzedzeń i innych problematycznych treści. Na swojej stronie dotyczącej etyki, Replika stwierdza, że trenuje swoje modele za pomocą danych źródłowych z całego internetu, w tym dużych baz tekstowych, takich jak platformy społecznościowe jak Twitter czy platformy dyskusyjne jak Reddit.
„W Replika używamy różnych podejść do łagodzenia szkodliwych informacji, takich jak filtrowanie niepomocnych i szkodliwych danych za pomocą crowdsourcingu i algorytmów klasyfikacyjnych” – mówi firma. „Kiedy wykrywane są potencjalnie szkodliwe wiadomości, usuwamy je lub edytujemy, aby zapewnić bezpieczeństwo naszych użytkowników.”
Kolejną kwestią jest, czy to przeszkadza, czy pomaga w procesie żałoby. Mary-Frances O’Connor, profesor na Uniwersytecie Arizony, która bada żałobę, powiedziała, że istnieją zarówno zalety, jak i wady używania technologii w ten sposób.
„Kiedy łączymy się z ukochaną osobą, kiedy zakochujemy się w kimś, mózg koduje tę osobę jako: „Zawsze będę dla ciebie i ty zawsze będziesz dla mnie” – powiedziała. „Kiedy umierają, nasz mózg musi zrozumieć, że ta osoba nie wróci.”
Ponieważ tak trudno jest mózgowi to pojąć, może minąć dużo czasu, zanim naprawdę zrozumiemy, że ich już nie ma – powiedziała. „To właśnie w tym miejscu technologia może ingerować.”
Jednakże, powiedziała, że ludzie szczególnie w początkowych etapach żałoby mogą szukać komfortu w każdy możliwy sposób.
„Tworzenie awatara, który przypomina im ukochaną osobę, przy jednoczesnym zachowaniu świadomości, że to ktoś ważny z przeszłości, może być lecznicze” – powiedziała. „Pamięć jest bardzo ważna; odzwierciedla ludzką kondycję i znaczenie zmarłych bliskich.”
Ale zauważyła, że relacje, które mamy z najbliższymi, opierają się na autentyczności. Tworzenie wersji AI tej osoby mogłoby dla wielu „naruszeniem” prywatności.
Bill Abney powiedział, że czuje się nieswojo, komunikując się ze swoją zmarłą narzeczoną za pomocą platform AI. Bill Abney
Różne podejścia
Komunikacja ze zmarłymi za pomocą sztucznej inteligencji nie jest dla każdego. Bill Abney, inżynier oprogramowania z San Francisco, który stracił swoją narzeczoną Kari w maju 2022 roku, powiedział CNN, że „nigdy" nie rozważałby odtworzenia jej podobizny za pomocą usługi lub platformy AI. „Moja narzeczona była poetką i nigdy bym jej nie zlekceważył, wprowadzając jej słowa do automatycznego plagiatu."
„Nie da się jej zastąpić. Nie da się jej odtworzyć" – powiedział. „Jestem również szczęśliwy, że mam nagrania jej śpiewu i mowy, ale absolutnie nie chcę słyszeć jej głosu wychodzącego z robota, który udaje, że nią jest."
Niektórzy znaleźli inne sposoby na cyfrową interakcję ze zmarłymi bliskimi. Jodi Spiegel, psycholog z Nowej Fundlandii w Kanadzie, powiedziała, że stworzyła wersję swojego męża i siebie w popularnej grze The Sims wkrótce po jego śmierci w kwietniu 2021 roku.
„Uwielbiam Simsy, więc stworzyłam nas tak, jak byliśmy w prawdziwym życiu" – powiedziała. „Kiedy miałam super zły dzień, wchodziłam do świata Simów i tańczyłam, podczas gdy mój mąż grał na gitarze."
Powiedziała, że wybierali się na cyfrowe wycieczki na kemping i na plażę, grali w szachy, a nawet uprawiali seks w świecie Simów. „Czułam się super komfortowo" – powiedziała. „Tęskniłam za spędzaniem czasu z moim facetem. Czułam się z nim połączona."