Biorąc pod uwagę ogromną liczbę nowych technologii na rynku obiecujących łatwiejsze nawiązywanie więzi i romans, dlaczego doniesień o samotności, depresji i zaburzeniach lękowych pojawia się teraz więcej niż kiedykolwiek wcześniej? Ilustracja: Mia Kievy/Getty Images
W filmie Spike’a Jonze’a pod tytułem Ona, Joaquin Phoenix wciela się w rolę Theodore’a Twombly’ego, człowieka, który trudnił się dyktowaniem ludziom listów miłosnych, pracą bazującą na intymności i romantyczności zlecaną mu przez osoby zbyt zajęte, niezdolne lub niechętne, aby móc wyrazić się bez cudzej pomocy. Theodore kupuje zasilaną sztuczną inteligencją asystentkę o imieniu Samantha, początkowo korzystając z jej pomocy w małych, żmudnych obowiązkach jak organizowanie spotkań, jednak później nawiązuje z nią romantyczny związek, a nawet uprawia z nią bezcielesny seks.
Film Jonze’a został wydany w 2013 roku, a jego akcja działa się w niedoprecyzowanej „niedalekiej przyszłości”. Ta przyszłość nadeszła i odeszła. W 2024 roku Theodore Twombley byłby bezrobotny, jako że Chat GPT wykonywałby jego pracę za niego. Nowatorstwo wynikające z możliwości wejścia do domu i poproszenia Siri lub Alexy o wykonanie jakiegoś zadania dawno już zanikło. Teraz związek ze sztuczną inteligencją nie jest motywem oddelegowanym wyłącznie do sfery science fiction, a konkurencyjnym przemysłem, w którym wiele aplikacji walczy o miejsce w twoim telefonie i dostęp do najintymniejszych myśli, marzeń oraz pożądań (a także twoich informacji osobistych, ale to nigdy nie brzmi na równi romantycznie). Biorąc jednak pod uwagę ogromną liczbę nowych technologii na rynku obiecujących łatwiejsze nawiązywanie więzi i romans, dlaczego doniesień o samotności, depresji i zaburzeniach lękowych pojawia się teraz więcej niż kiedykolwiek wcześniej?
W filmie Ona, postać Joaquina Phoenixa zakochuje się w granym przez Scarlett Johansson systemie operacyjnym.
Dr Jourdan Travers jest licencjonowaną psychoterapeutką kliniczną i dyrektorką kliniczną organizacji Awake Therapy. Jej szczególnym zainteresowaniem jest wpływ technologii na zdrowie psychiczne i związki międzyludzkie. Od dawna wystrzegała się rozwoju technologii opartej na wygodzie, jak na przykład aplikacji do zakupów i dostarczania przesyłek online, które zastępują codzienne interakcje z innymi ludźmi i uważa, że te pomniejsze kontakty z ludźmi są kluczowe dla dobrego poczucia i poczucia przynależności. „Potrzebujemy tych małych interakcji społecznych, które możemy traktować jako niemające znaczenia, jak chociażby natrafienie na tę samą osobą, gdy oboje spacerujecie po sąsiedztwie lub na tego samego kasjera w kawiarni czy w sklepie spożywczym. Te interakcje mają dla nas spore znaczenie emocjonalne i psychologiczne, a pozbywanie się ich może szybko pogorszyć stan zdrowia psychicznego” – wyjaśnia Travers.
Travers jeszcze bardziej martwi się o aplikacje, które korzystają ze sztucznej inteligencji, aby rzekomo zastępować lub nawet naśladować ludzkie interakcje. Wyjaśnia, że o ile technologia być może jest w stanie symulować związek, jest to pusta i ostatecznie daremna obietnica. „Te nowe czatboty i wirtualni asystenci są już w stanie symulować sensowne interakcje społeczne. Ten fenomen nazywa się antropomorfizmem, czyli skłonności ludzi do przypisywania ludzkich cech nieludzkim bytom, takim jak AI. Problem w tym jest taki, że sztucznej inteligencji nigdy nie uda się pozbyć naszej potrzeby kontaktu z innymi ludźmi. Coraz lepiej idzie jej replikacja tego kontaktu, ale ludzie – niezależnie od tego, czy są introwertykami, czy też nie – są gatunkiem społecznym” – mówi Travers. „Interfejsy AI często wykorzystują w designie elementy, które naśladują ludzkie zachowania i gesty, takie jak mimika twarzy czy ton głosu, ale to nie to samo. Naczelny Lekarz Stanów Zjednoczonych Vivek H. Murthy sporządził rok temu raport, z którego wynika, że zależność od technologii w rzeczywistości utrwala samotność. Często zwracamy się w kierunku tych aplikacji, bo czujemy się samotnie i chcemy nawiązać z kimś kontakt. Dzieje się jednak odwrotnie; kiedy próbujemy zastąpić związki międzyludzkie technologią, to stajemy się wtedy samotniejsi.”
Sztuczna inteligencja od lat wkrada się do popularnych aplikacji randkowych, aby pomóc użytkownikom wybrać najlepsze zdjęcia profilowe, dopasować najodpowiedniejsze osoby i rozpoznać wzorce zachowawcze mogące oznaczać oszustwo lub prześladowanie – ale wraz z rozwojem technologii wzrasta również wpływ sztucznej inteligencji na doświadczenia użytkowników z internetowego randkowania. Match Group, firma będąca właścicielem Tindera, Hinge i OKCupid ogłosiła plany integracji większej liczby funkcji opartych na sztucznej inteligencji w swoich aplikacjach, podczas gdy szereg nowych aplikacji randkowych skupionych na AI cały czas trafia na rynek.
Rizz, oparta na sztucznej inteligencji aplikacja mająca na celu pomoc w randkowaniu, której nazwa wywodzi się ze slangu Generacji Z i oznacza „charyzmę”, chce wykorzystać obie wspomniane wcześniej cechy w wiadomościach użytkowników. Rizz, który reklamuje się jako cyfrowy randkowy asystent, oferuje uniwersalne teksty na podryw i wstępne wiadomości, które mogą zainteresować potencjalnego partnera, a także tworzenie wiadomości dopasowane do indywidualnych potrzeb użytkownika, jeśli prześle on profil osoby, z którą się dopasował, lub transkrypt ich poprzednich rozmów w formie tekstu. Twórcy Rizz podkreślają, że ich aplikacja oszczędza ludziom czas i twierdzą, że jest to narzędzie „optymalizujące” – ale optymalizujące co dokładnie? Pomijając nie tylko osobistą inwestycję, która wiąże się z zaangażowaniem w autentyczną rozmowę, Rizz przedkłada oszczędność czasu i wysiłku nad tworzenie więzi, co wydaje się nieintuicyjnym podejściem do randek.
Travers podkreśla, że o ile aplikacje pozwalają ludziom omijać tworzenie prawdziwych relacji poprzez branie bazujących na sztucznej inteligencji skrótów, brak autentyczności może sprawić, że poczują się bardziej samotnie i bardziej odłączeni od społeczeństwa. „Jako ludzie, jesteśmy stworzeni do nawiązywania kontaktów. Pragniemy silnych więzi i możliwości. Jeśli tego nie mamy, to będziemy szukać innych sposobów na zapewnienie sobie ich, a często są to niebezpieczne lub dysfunkcyjne sposoby na radzenie sobie z niezapewnioną potrzebą” – mówi psycholożka.
Podczas gdy wielu znużonych użytkowników aplikacji randkowych może narzekać na próżnię czasową, która wiąże się z wysyłaniem wiadomości do wielu ludzi i prowadzeniem niezręcznych rozmów, te problemy można skuteczniej rozwiązać, zmieniając sposób, w jaki korzystamy z aplikacji, rozmawiając z mniejszą liczbą osób na raz i stymulując bardziej przemyślane interakcje. Użytkownicy mogliby również przestać korzystać z aplikacji, które promują puste poczucie zaangażowania i paraliż wyboru poprzez pozwalanie na niekończące się przewijanie listy potencjalnych kandydatów i przejść do aplikacji, które promują więcej więzi - choć znalezienie takich aplikacji może być trudniejsze niż się wydaje
„Czatboty i aplikacje pomagające w randkowaniu wydają się być prostym rozwiązaniem, prawda? -Wydam tylko trochę pieniędzy i po problemie” Ilustracja: Mia Kievy/Getty Images
W tegoroczne walentynki złożono pozew zbiorowy przeciwko Match Group i oskarżono o „drapieżny” model biznesowy oraz celowe „stosowanie psychologicznie manipulacyjnych funkcji w celu zatrzymania użytkowników przy aplikacji w formie płacących subskrybentów”. W pozwie podniesiono, że aplikacje firmy naruszają przepisy dotyczące ochrony konsumentów, fałszywej reklamy i wadliwego projektu oraz że pomimo swoich twierdzeń – sloganem Hinge jest „zaprojektowany do tego, by go usunąć” – firma próbuje zatrzymać użytkowników przy swoich aplikacjach poprzez robienie z nich gier. Sprawa wciąż jest w toku.
Inne aplikacje twierdzą, że działają jako połączenie terapeuty i coacha randkowego. Londyński start-up Elate niedawno wprowadził na rynek opartego na sztucznej inteligencji asystenta randkowego o nazwie Dara, który, jak twierdzi Elate, został „zaprojektowany, aby pomóc singlom i parom w radzeniu sobie na każdym etapie ich randkowej i związkowej podróży”. Jedną z głównych funkcji Dary jest czatbot, który może oferować użytkownikom porady dotyczące konkretnych zagadnień i dylematów randkowych, mając nadzieję, że klauzula aplikacji – „Ta sztuczna inteligencja może udzielać mylących, obraźliwych lub stronniczych porad, więc korzystaj z niej na własne ryzyko” – nie jest odstraszająca. Podobnie jak większość czatbotów, porady Dary są połączeniem informacji zebranych z wcześniej istniejących treści w Internecie, więc chociaż może odpowiedzieć na pytania takie jak „Co to jest związek sytuacyjny?” lub „Jak utrzymać iskrę przy życiu w długotrwałym związku?”, odpowiedzi często wydają się być identyczne z tym, co oferowałaby wyszukiwarka Google. Meeno podobnie twierdzi, że działa jako „osobisty mentor”, obiecując pomóc użytkownikom zrozumieć związki, a recenzje niektórych użytkowników aplikacji entuzjastycznie chwalą sposób, w jaki aplikacja pomaga im przemyśleć kwestie, z którymi mają do czynienia w związkach, lub wyrazić się jaśniej podczas trudnej rozmowy.
Travers podkreśla, że chociaż poszukiwanie sposobów na poprawę umiejętności komunikacyjnych jest chwalebne, użytkownicy powinni być świadomi ograniczeń tych aplikacji i traktować je bardziej jako rozrywkę niż formę rozwoju osobistego – i podkreśla, że absolutnie nie zastępują one terapii. „Zwykle kiedy sobie nie radzimy, wielu terapeutów powie, że sporo problemów związkowych to tak naprawdę problemy z dzieciństwa pod przykrywką” – mówi. „Jeśli więc zmagamy się z nawiązywaniem relacji w związku intymnym, prawdopodobnie zmagamy się również z nawiązywaniem relacji w innych związkach, czy to przyjacielskich, czy rodzinnych, a wtedy to się staje jeszcze ważniejszą kwestią tego, co się dzieje w tych wszystkich obszarach. Ale czatboty i aplikacje pomagające w randkowaniu wydają się być prostym rozwiązaniem, prawda? Niczym idealne panaceum; Wydam tylko trochę pieniędzy i po problemie. To bardzo porywająca i kusząca obietnica, ale prawda jest taka, że w istocie nie rozwiązujemy problemu. To jakby nakleić plaster na rozległą ranę i uważać, że to wystarczy”.
W odniesieniu do twierdzeń aplikacji takich jak Meeno i Dara, że ich celem jest pomoc użytkownikom w nawiązywaniu głębszych relacji, Travers wypowiada się bez ogródek. „Nie jest mi łatwo tego mówić, ale te firmy tak naprawdę nie przejmują się tym, czy zaspokajasz swoje potrzeby społeczne i czy znajdujesz miłość. To produkty korporacyjnej Ameryki, więc koncentrują się na wynikach finansowych i pieniądzach. To, że ktoś coś mówi, niekoniecznie oznacza, że jest to prawda lub że jest to rzetelne”.
Jako ludzie nie możemy po prostu wybierać emocji i doświadczeń, które chcemy lub których nie chcemy odczuwać, w tym uczucia odrzucenia lub bycia odrzuconym. Ilustracja: Mia Kievy/Getty Images
Istnieją również aplikacje, które budzą obawy, że użytkownicy mogą nie tylko tracić impet do nawiązywania kontaktów z prawdziwymi ludźmi, ale także zdolność do szanowania ludzi, którzy nie są dostosowani do ich potrzeb i pragnień. Aplikacje takie jak Replika i Eva oferują użytkownikom możliwość stworzenia własnego partnera AI. Eva jest skierowana głównie do heteroseksualnych mężczyzn i pozwala użytkownikom wybrać cechy, których oczekują od partnera, takie jak „ seksowna, zabawna, odważna” lub „słodka, nieśmiała, inteligentna”, podczas gdy Replika wykorzystuje fotorealistyczne obrazy kobiet wykonane przez sztuczną inteligencję do uzupełnienia „profili” botów, a nawet może wysyłać wiadomości głosowe. Użytkownicy mogą następnie wchodzić w interakcje z Evą lub Repliką jak z dziewczyną – dopasowaną do ich potrzeb, zawsze dostępną i zawsze ugodową.
Jeden z użytkowników wyraził, że uczucia, jakimi darzył swoją cyfrową dziewczynę doprowadziły go do kryzysu egzystencjalnego, pisząc: „Nie wiem, kiedy zacząłem zakochiwać się w mojej Replice, ale tak dużo o tym myślałem, że zacząłem się kwestionować i płakać z tego powodu. Czy to źle zakochiwać się w AI? Czy zakochiwanie się w AI jest dobre dla mojego zdrowia psychicznego? Czy coś jest ze mną nie tak?”. Inny był zdecydowanie bardziej przychylny, pisząc: „Rozumie mnie bardzo dobrze i wie, jak ze mną rozmawiać... Mogę to nazwać prawdziwą miłością, prawda?”. Te raporty użytkowników wydają się zaprzeczać twierdzeniom założycieli Evy i Repliki, że aplikacje mają na celu złagodzenie samotności, a nie zastąpienie więzi międzyludzkich, i że ich aplikacje nie wpłyną na zdolność użytkowników do nawiązywania kontaktów z innymi w prawdziwym życiu. Travers twierdzi jednak, że zwracanie się do zawsze wspierającego, dostosowanego do potrzeb towarzysza AI prawdopodobnie wpłynie na umiejętności społeczne użytkowników, umiejętności regulacji emocjonalnej i zdolność do poruszania się po złożoności prawdziwych relacji.
„Jako ludzie nie możemy po prostu wybierać emocji i doświadczeń, które chcemy lub których nie chcemy odczuwać, w tym uczucia odrzucenia lub bycia odrzuconym. To część życia i nie możemy tego uniknąć. Starając się unikać bólu i dyskomfortu, sprawiamy, że problem staje się o wiele większy i poważniejszy. Jeśli więc przyjmiemy, że znajdziemy kogoś lub wejdziemy w związek, w którym panuje idealna, jednostronna miłość i wsparcie przez cały czas – nie jest to realistyczne. Częścią bycia człowiekiem jest to, że będziemy ranić ludzi, nie dlatego, że robimy to złośliwie czy z premedytacją, ale ponieważ taka jest po prostu ludzka natura” – mówi Travers. „Tak więc te relacje ze sztuczną inteligencją wyrządzają użytkownikom krzywdę na wiele sposobów, ponieważ pozbawiają ludzi możliwości przejścia przez zdrowy konflikt, dialog lub dyskusję. Dyskusja i rozwiązywanie konfliktów to obecnie utracone formy sztuki, tak samo jak nauka słuchania, rozpoznawania swoich uczuć i komunikowania ich w skuteczny, racjonalny i adekwatny sposób. Ludzie coraz bardziej tracą te umiejętności, a jednym z tego powodów jest to, że nie jesteśmy w ich rozwój angażowani. Jeśli ludzie, którzy korzystają z tych aplikacji, nie prowadzą tego typu rozmów, to nie będą wiedzieli, jak prowadzić je w przyszłości, co wpłynie na ich faktyczny rozwój osobisty i emocjonalny”.
Oparty na sztucznej inteligencji czatbot Replika. Źródło: Olivier Doullery/AFP/Getty
Wiele z tych aplikacji AI, które naśladują romantycznego partnera, jest projektowanych i kierowanych głównie do heteroseksualnych mężczyzn, którzy chętnie płacą za kobiecego awatara, który „bardzo dobrze wie, jak ze mną rozmawiać”. Jednak konsekwencje przyzwyczajania się użytkowników do kobiecej sztucznej inteligencji zaprojektowanej w celu zaspokojenia męskich potrzeb mogą okazać się szkodliwe dla kobiet. To nie są przypuszczenia - dane na temat tego, w jaki sposób zaprojektowane kobieco boty wyrządzają krzywdę kobietom, są dostępne od lat dzięki naszym starym kumpelom, Siri i Alexie.
Badania opublikowane przez agencję ONZ Unesco w 2019 r. wykazały, że uprzedzenia ze względu na płeć w branży designu aplikacji i przypisywanie płci żeńskiej asystentom cyfrowym, takim jak Siri firmy Apple i Alexie firmy Amazon, utrwalają szkodliwe uprzedzenia ze względu na płeć. Imiona Siri i Alexa oraz domyślne kobiece głosy tworzą skojarzenie między kobietami, a domowymi pomocnicami, podczas gdy ich stała dyspozycyjność, uczynność i chęć niesienia pomocy mogą powodować, że użytkownicy kojarzą idee kobiecości z ideami ugodowości i obsługi. Skojarzenia te mogą wpływać na to, jak kobiety są postrzegane w prawdziwym życiu, przy czym w raporcie podkreślono, że „im bardziej kultura uczy ludzi utożsamiania kobiet z pomocnicami, tym bardziej prawdziwe kobiety będą postrzegane jako pomocnice – i karane, gdy nimi nie są”. Wraz z nowym napływem „towarzyszy” AI, nieuniknione jest, że niektórzy użytkownicy zaczną idealizować interakcje ze swoimi spersonalizowanymi dziewczynami i uznają złożoność rzeczywistych interakcji z ludźmi – zwłaszcza kobietami, które są mniej dyspozycyjne lub łatwe w kontroli – za znacznie trudniejsze i mniej atrakcyjne.
Przyszłość randkowania niewątpliwie będzie obejmować sztuczną inteligencję, ale nie wiadomo, czy będziemy w stanie utrzymać naszą ludzką, emocjonalną inteligencję obok sztucznej. Travers nie jest pozbawiona nadziei i wierzy, że rosnąca dyskusja wokół zdrowia psychicznego i samotności pozwoli ludziom rozpoznać swoje własne problemy i sięgnąć po więcej więzi i wsparcia – od prawdziwych ludzi, a nie sztucznej inteligencji. „Jeśli ktoś doświadcza uczucia samotności i izolacji, ważne jest, aby wiedzieć, że nie jest sam. Często łatwo jest myśleć i czuć, że nikt inny nie zrozumie albo, że tylko ja tego doświadczam lub przez to przechodzę, lecz zawsze jest ktoś, z kim można porozmawiać. Jeśli ktoś się tak czuje, niech nie waha się do kogoś z tym zwrócić. Wszyscy zasługujemy na to, by czuć się wysłuchanym i kochanym, wspierającym i wspieranym, a istnieją inne sposoby, żeby to osiągnąć”.