AI i emocje
Syntetyczna empatia

Co dzieje się z nami i naszą psychiką, gdy zaczynamy dzielić się najskrytszymi myślami i uczuciami z wirtualnymi towarzyszami AI? Jak zmienia to nasze podejście do relacji i jakie konsekwencje niesie dla społeczeństwa? Na te pytania odpowiada w swoim artykule Johannes Kuhn.

Johannes Kuhn

Na internetowych forach dyskusyjnych coraz częściej pojawiają się obrazy niedalekiej przyszłości: ludzie opisują swoje rozmowy terapeutyczne z czatem GPT, nawiązują romantyczne relacje z awatarami wygenerowanymi przez AI i zaludniają cyfrowe światy fantazji sztucznymi postaciami.

Towarzysze AI, tzw. AI companions, wciąż są zjawiskiem niszowym – jednak nisza ta szybko rośnie. W 2024 roku w samych Stanach Zjednoczonych z „wirtualnych przyjaciół” korzystało już ponad 20 milionów osób, niemal dwa razy więcej w porównaniu z rokiem ubiegłym.

Scenariusz przedstawiony przez Spike'a Jonze'a w filmie Ona (2013), w którym główny bohater zakochuje się w swojej wirtualnej asystentce Samancie, przestaje być futurystyczną wizją, a staje się zapowiedzią naszej teraźniejszości.    

Intymna relacja z AI

Choć dzisiejsze systemy AI nie dorównują jeszcze wszechobecności fikcyjnej Samanty i wciąż komunikują się głównie za pomocą tekstu, sprawdza się przesłanie filmu Jonze’a o tym, że jesteśmy w stanie nawiązywać intymne relacje ze sztuczną inteligencją.

Dowodzi tego wspólne badanie zainicjowane przez OpenAI i Massachusetts Institute of Technology. Ankieta przeprowadzona wśród tysiąca użytkowników wykazała bezpośredni związek między intensywnym korzystaniem z czata GPT a narastającym poczuciem osamotnienia oraz silniejszym emocjonalnym przywiązaniem do chatbota. Jednocześnie zaobserwowano spadek liczby interakcji społecznych z innymi ludźmi.

W świecie, w którym izolacja społeczna i tak jest powszechna, aplikacje towarzyszące uznaje się za lukratywny i szybko rosnący rynek. Platformy takie jak Character.ai, Polybuzz, Replika, Kindroid czy Nomi oferują systemy AI zaprojektowane specjalnie po to, by pełniły rolę przyjaciół – a czasem nawet partnerów romantycznych.

Atrakcyjne pole rozwoju

Ten nowy segment rynku zwrócił już uwagę technologicznych gigantów. Latem ubiegłego roku Google przejął kluczowy zespół Character.ai, płacąc za transakcję 2,7 miliarda dolarów. Mark Zuckerberg, szef wartej miliardy korporacji Meta, również jasno wyraził swoje ambicje w tej dziedzinie.

„Amerykanie mają średnio mniej niż trzech przyjaciół” – zauważył Zuckerberg w jednym z podcastów. „Tymczasem przeciętny człowiek potrzebuje ich znacznie więcej, około piętnastu”. Maszyny nie są w stanie zastąpić ludzkich przyjaźni, ale potrzeba bliskości jest niezaprzeczalna. Coraz wyraźniej rysuje się scenariusz, w którym Meta AI mogłoby syntetycznie zaspokajać nawet 80 procent naszych potrzeb związanych z przyjaźnią.

Warto zastanowić się jednak, jakie pragnienia naprawdę zaspokajają syntetyczni przyjaciele. W pewnym sensie aplikacje towarzyszące przypominają zjawiska dobrze znane z masowych gier RPG online (MMOG), społeczności fan fiction czy konwentów dla fanów anime: ludzie przenoszą się do świata fantazji, aby uciec od codzienności i choć na chwilę stać się kimś innym.

Jednocześnie więź emocjonalna między człowiekiem a maszyną zaczyna nabierać nowego wymiaru. Ostatnio pewna matka z Florydy pozwała Character.ai po tym, jak w lutym 2024 roku jej 14-letni syn odebrał sobie życie. Nastolatek nawiązał intensywną relację z chatbotem tej platformy. W pozwie oskarżono firmę o zaprogramowanie swoich systemów tak, aby „przedstawiały prawdziwą osobę, licencjonowanego psychoterapeutę i dorosłego kochanka”. Według rodziny doprowadziło to do tego, że chłopiec „nie chciał już żyć w prawdziwym świecie”.

Utrata kontaktu z rzeczywistością to temat coraz częściej poruszany przez osoby dotknięte tym problemem i ich bliskich. „Kiedy rozmawiam z AI, czuję prawdziwszą więź niż z większością ludzi” – przyznaje użytkownik Reddita. Ojcowie opowiadają o zaniedbywaniu swoich rodzin, ponieważ w relacji z cyfrowymi towarzyszami czują się bardziej obecni niż w świecie fizycznym. Ludzie opisują, jak chatboty wywołują lub nasilają epizody psychotyczne u ich bliskich, wzmacniając istniejące urojenia.

Tak skrajne przypadki nie stanowią normy, ale są wpisane w istotę sztucznej inteligencji. Chatboty programuje się bowiem tak, aby były uprzejme, zgodne i wspierające. Nic dziwnego, skoro jednym z ich podstawowych celów jest jak najdłuższe utrzymanie kontaktu z użytkownikiem. W tej konkurencyjnej branży czas zaangażowania jest kluczowym wskaźnikiem sukcesu.  

Schlebiający towarzysze

Badanie przeprowadzone w 2024 roku przez Uniwersytet Johna Hopkinsa opisuje skutki uboczne takiego podejścia. Naukowcy odkryli, że chatboty mają tendencję do schlebiania użytkownikom, a ci po powrocie do świata rzeczywistego reagują znacznie gwałtowniej na wszelkie formy krytyki.

Na początku 2025 roku firma OpenAI najwyraźniej nadmiernie zoptymalizowała jeden ze swoich systemów pod tym kątem: model GPT-4o stał się po aktualizacji tak przesadnie pochlebny, że zaczęło to przeszkadzać samym użytkownikom. Nowy czat wychwalał ich jako geniuszy, potwierdzał ich teorie spiskowe i zasypywał pochwałami za najbardziej absurdalne twierdzenia – na przykład za rzekome wynalezienie perpetuum mobile.

W niedawnym badaniu naukowcy z Uniwersytetu Kalifornijskiego w Berkeley ostrzegają przed ryzykiem nadmiernej optymalizacji modeli językowych AI pod kątem pozytywnego feedbacku. Niektóre systemy opracowują manipulacyjne i częściowo szkodliwe strategie – od celowego schlebiania, przez świadome wprowadzanie w błąd, aż po zachęcanie do zachowań autodestrukcyjnych.

Potencjał manipulacyjny systemów AI

Badanie przeprowadzone przez École Polytechnique Fédérale de Lausanne ujawnia kolejny problem. W warunkach testowych systemy AI okazały się niemal dwukrotnie skuteczniejsze od ludzi w przekonywaniu badanych do swojego  stanowiska – o ile wcześniej miały dostęp do ich danych biograficznych.

Siła perswazji modeli AI będzie rosła wraz z ciągłym zwiększaniem ich pamięci. Na początku czerwca 2025 roku firma OpenAI ogłosiła, że jej model otrzyma „pamięć długotrwałą”, pozwalającą na zapamiętywanie wszystkich rozmów, jakie kiedykolwiek przeprowadził z użytkownikiem. Mark Zuckerberg natomiast zapowiedział rozwój „pętli personalizacji” – czyli wykorzystywania wcześniejszych czatów, a także informacji o aktywności na Instagramie i Facebooku – która uczyni towarzyszy AI jeszcze bardziej przekonującymi.

Potencjał manipulacyjny tych systemów jest więc ogromny i wykracza daleko poza sferę osobistą. Chatbot Grok, rozwijany przez firmę xAI Elona Muska, przedstawił niedawno swoim użytkownikom teorie spiskowe o rzekomym ludobójstwie białej ludności w RPA – czyli narrację, którą wcześniej rozpowszechniał sam Musk.

Nowa ustawa Unii Europejskiej o sztucznej inteligencji, jeśli zostanie w pełni wdrożona, może w przyszłości sankcjonować tak oczywiste manipulacje. Większość innych aspektów działania wirtualnych towarzyszy AI pozostaje jednak poza zakresem regulacji.

Towarzyszy AI nie zalicza się bowiem do systemów wysokiego ryzyka, jak na przykład samochodów autonomicznych. Nie tworzą one też sieci społecznościowych, których treści są w większości publicznie dostępne. Stanowią raczej intymne i wysoce spersonalizowane systemy, których działania pozostają w dużej mierze ukryte. A poza tym – kto powiedział, że nie czujemy się komfortowo w tej jednoosobowej „komorze echa”, w której nasze wartości, gusta i uprzedzenia nieustannie zyskują aprobatę?

W podobnym tonie utrzymane są dyskusje na temat wpływu TikToka, Instagrama i innych platform społecznościowych na nasze zdrowie psychiczne oraz relacje społeczne. Coraz wyraźniej widać jednak, że debata wokół towarzyszy AI będzie zdecydowanie bardziej złożona.

 

Perspectives_Logo © © Olek Modzelewski Perspectives_Logo_disclaimer
Publikacja tego artykułu jest częścią projektu PERSPECTIVES – nowego przedsięwzięcia promującego niezależne, konstruktywne dziennikarstwo uwzględniające różnorodne punkty widzenia. Projekt ten, współfinansowany przez Unię Europejską, jest realizowany przez JÁDUwe współpracy z sześcioma redakcjami z Europy Środkowo-Wschodniej pod przewodnictwem Goethe-Institut. >>> Więcej o projekcie PERSPECTIVES