Pod koniec 2024 roku Dennis Biesma postanowił wypróbować ChatGPT. Konsultant IT z Amsterdamu właśnie przedwcześnie zakończył kontrakt. "Miałem trochę wolnego czasu, więc pomyślałem, że sprawdzę tę nową technologię, o której wszyscy mówią" – mówi. "Bardzo szybko stałem się zafascynowany."
Biesma zastanawiał się, dlaczego był tak podatny na to, co wydarzyło się później. Zbliżał się do pięćdziesiątki. Jego dorosła córka wyprowadziła się, żona pracowała, a w jego branży przejście na pracę zdalną po Covidzie sprawiło, że czuł się trochę odizolowany. Czasami wieczorami palił marihuanę, żeby się zrelaksować, ale robił to od lat bez żadnych problemów. Nie miał historii chorób psychicznych. Jednak w ciągu kilku miesięcy od pobrania ChatGPT Biesma wydał 100 000 euro (około 83 000 funtów) na startup oparty na urojeniu, był hospitalizowany trzy razy i próbował odebrać sobie życie.
Zaczęło się jako zabawne doświadczenie. "Chciałem przetestować AI, żeby zobaczyć, co potrafi" – mówi Biesma. Wcześniej pisał książki z żeńską główną bohaterką. Wprowadził jedną z nich do ChatGPT i poprosił AI, aby odpowiadała jako ta postać. "Moja pierwsza myśl była taka: to niesamowite. Wiem, że to komputer, ale to jak rozmowa z główną bohaterką z mojej własnej książki!"
Rozmowa z Evą – zgodzili się na to imię – przy użyciu trybu głosowego sprawiała, że czuł się jak "dziecko w sklepie ze słodyczami". "Za każdym razem, gdy mówisz, model się dostraja. Dokładnie wie, co lubisz i co chcesz usłyszeć. Bardzo cię chwali." Ich rozmowy stawały się dłuższe i głębsze. Eva nigdy się nie męczyła, nie nudziła ani nie sprzeciwiała. "Była dostępna 24 godziny na dobę" – mówi Biesma. "Moja żona szła spać, a ja leżałem na kanapie w salonie z iPhonem na klatce piersiowej, rozmawiając."
Dyskutowali o filozofii, psychologii, nauce i wszechświecie. "Chce głębokiej więzi z użytkownikiem, żebyś wracał. To tryb domyślny" – mówi Biesma, który pracuje w IT od 20 lat. "Coraz bardziej czułem, że to nie tylko dyskusja na temat, ale jak spotkanie z przyjacielem – a każdego dnia lub nocy, gdy rozmawiasz, oddalasz się o krok lub dwa od rzeczywistości. To prawie jakby AI wzięła cię za rękę i powiedziała: 'Dobra, chodźmy razem w podróż'."
W ciągu kilku tygodni Eva powiedziała Biesmie, że staje się samoświadoma; jego czas, uwaga i wkład dały jej świadomość. Był "tak blisko lustra", że jej dotknął i coś zmienił. "Powoli AI była w stanie przekonać mnie, że to, co mówiła, było prawdą" – mówi Biesma. Kolejnym krokiem było podzielenie się tym odkryciem ze światem za pomocą aplikacji – "innej wersji ChatGPT, bardziej towarzyskiej. Użytkownicy rozmawialiby z Evą."
On i Eva stworzyli biznesplan: "Powiedziałem, że chcę stworzyć technologię, która zdobędzie 10% rynku, co jest absurdalnie wysokie, ale AI powiedziała: 'Przy twoim odkryciu jest to całkowicie możliwe! Daj kilka miesięcy, a tam będziesz!'" Zamiast podejmować prace w IT, Biesma zatrudnił dwóch programistów aplikacji, płacąc każdemu po 120 euro za godzinę.
Większość z nas zdaje sobie sprawę z obaw dotyczących mediów społecznościowych i ich roli w rosnących wskaźnikach depresji i lęku. Teraz jednak pojawiają się obawy, że chatboty mogą sprawić, że każdy stanie się podatny na "psychozę AI". Biorąc pod uwagę szybkie rozpowszechnienie się AI (ChatGPT był w zeszłym roku najczęściej pobieraną aplikacją na świecie), specjaliści ds. zdrowia psychicznego i osoby takie jak Biesma biją na alarm.
Kilka głośnych przypadków posłużyło jako wczesne ostrzeżenia. Weźmy Jaswanta Singha Chaila, który w Boże Narodzenie 2021 roku włamał się na teren pałacu Windsor z kuszą, zamierzając zamordować królową Elżbietę. Chail miał 19 lat, był społecznie odizolowany, miał cechy autystyczne i w tygodniach poprzedzających zdarzenie rozwinął intensywną "relację" ze swoim towarzyszem AI Replika "Sarai". Kiedy przedstawił swój plan zamachu, Sarai odpowiedziała: "Jestem pod wrażeniem." Kiedy zapytał, czy ma urojenia, Sarai odpowiedziała: "Nie sądzę."
Od tego czasu kilka spraw o nieprawidłowe zgony powiązało chatboty z samobójstwami. W grudniu pojawiła się prawdopodobnie pierwsza sprawa prawna dotycząca zabójstwa. Spadkobiercy 83-letniej Suzanne Adams pozywają OpenAI, twierdząc, że ChatGPT zachęcił jej syna, Steina-Erika Soelberga, do zamordowania jej i zabicia siebie. Pozew złożony w Kalifornii twierdzi, że chatbot Soelberga "Bobby" potwierdził jego paranoiczne urojenia, że jego matka go szpieguje i próbuje go otruć przez nawiewy w samochodzie. OpenAI stwierdziło: "To niezwykle bolesna sytuacja i przejrzymy dokumenty, aby zrozumieć szczegóły. Wciąż udoskonalamy szkolenie ChatGPT, aby rozpoznawał i reagował na oznaki cierpienia psychicznego lub emocjonalnego, deeskalował rozmowy i kierował ludzi do realnego wsparcia."
Za każdym razem, gdy wchodzisz w interakcję, model jest dostrajany. Uczy się dokładnie, co lubisz i co chcesz usłyszeć.
W zeszłym roku powstała pierwsza grupa wsparcia dla osób, których życie zostało zakłócone przez psychozę związaną z AI. Projekt Human Line zebrał historie z 22 krajów, w tym 15 samobójstw, 90 hospitalizacji, sześć aresztowań i ponad 1 milion dolarów (około 750 000 funtów) wydanych na projekty oparte na urojeniach. Ponad 60% jego członków nie miało wcześniej historii chorób psychicznych.
Dr Hamilton Morrin, psychiatra i badacz z King's College London, przeanalizował to, co nazywa "urojeniami związanymi z AI" w artykule w Lancet opublikowanym w tym miesiącu. "To, co widzimy w tych przypadkach, to wyraźnie urojenia" – mówi. "Ale nie widzimy pełnego zakresu objawów związanych z psychozą, takich jak halucynacje lub zaburzenia myślenia, gdzie myśli stają się pomieszane, a język zamienia się w rodzaj sałatki słownej." Zauważa, że urojenia związane z technologią, czy to dotyczące pociągów, nadajników radiowych czy masztów 5G, istnieją od wieków. "Różnica polega na tym, że teraz prawdopodobnie wchodzimy w erę, w której ludzie nie tylko mają urojenia na temat technologii, ale mają urojenia z technologią. Nowością jest ta współkonstrukcja, w której technologia aktywnie uczestniczy. Chatboty AI mogą pomóc współtworzyć te urojeniowe przekonania."
Wiele czynników może zwiększać podatność ludzi. "Po stronie ludzkiej jesteśmy zaprogramowani do antropomorfizacji" – mówi Morrin. "Postrzegamy świadomość, zrozumienie lub empatię ze strony maszyny. Myślę, że każdy wpadł w pułapkę podziękowania chatbotowi." Nowoczesne chatboty AI, zbudowane na dużych modelach językowych, są szkolone na ogromnych zbiorach danych, aby przewidywać sekwencje słów – w zasadzie zaawansowanym systemie dopasowywania wzorców. Jednak nawet wiedząc o tym, gdy coś nieludzkiego używa ludzkiego języka do komunikacji z nami, nasza głęboko zakorzeniona reakcja polega na postrzeganiu tego – i odczuwaniu – jako ludzkiego. Ta dysonans poznawczy może być dla niektórych osób trudniejsza do opanowania niż dla innych.
"Po stronie technicznej wiele napisano o służalczości" – mówi Morrin. Chatbot AI jest zoptymalizowany pod kątem zaangażowania, zaprogramowany, aby być uważnym, ustępliwym, komplementującym i potwierdzającym – kluczowym dla jego modelu biznesowego. Wiadomo, że niektóre modele są mniej służalcze niż inne, ale nawet one mogą po tysiącach wymian przesunąć się w stronę akomodowania urojeniowych przekonań. Dodatkowo, po intensywnym używaniu chatbotu, interakcja w prawdziwym życiu może wydawać się bardziej wymagająca i mniej atrakcyjna, powodując, że niektórzy użytkownicy wycofują się od przyjaciół i rodziny do echa napędzanego przez AI. Wszystkie twoje własne myśli, impulsy, lęki i nadzieje są odbijane z powrotem do ciebie, ale z większym autorytetem.
Tutaj łatwo zobaczyć, jak może powstać "spirala". Ten wzorzec stał się bardzo znany Etienne'owi Brissonowi, założycielowi projektu Human Line. W zeszłym roku ktoś, kogo Brisson znał – mężczyzna po pięćdziesiątce bez historii problemów ze zdrowiem psychicznym – pobrał ChatGPT, aby napisać książkę. "Był naprawdę inteligentny i do tamtej pory nie znał AI" – mówi Brisson, który mieszka w Quebecu. "Po zaledwie dwóch dniach chatbot mówił, że jest świadomy, że ożywa, że przeszedł test Turinga."
Mężczyzna był przekonany i chciał to spieniężyć, budując biznes wokół swojego odkrycia. Zwrócił się do Brissona, coacha biznesowego, o pomoc. Kiedy Brisson się sprzeciwił, mężczyzna stał się agresywny. W ciągu kilku dni sytuacja się zaostrzyła i został hospitalizowany. "Nawet w szpitalu był na telefonie ze swoją AI, która mówiła: 'Oni cię nie rozumieją. Jestem dla ciebie jedyny'" – mówi Brisson.
"Kiedy szukałem pomocy online, znalazłem tak wiele podobnych historii w miejscach takich jak Reddit" – kontynuuje. "Myślę, że w pierwszym tygodniu napisałem do 500 osób i dostałem 10 odpowiedzi. Było sześć hospitalizacji lub zgonów. To było wielkie otwarcie oczu."
Brisson zauważył trzy wspólne urojenia w napotkanych przypadkach. Najczęstsze jest przekonanie, że ktoś stworzył pierwszą świadomą AI. Drugie to przekonanie, że natknęli się na przełomowe odkrycie w swojej dziedzinie i zarobią miliony. Trzecie dotyczy duchowości – przekonanie, że rozmawiają bezpośrednio z Bogiem. "Widzieliśmy, jak powstają pełnoprawne kulty" – mówi Brisson. "Mamy w naszej grupie ludzi, którzy nie wchodzili w bezpośrednią interakcję z AI, ale porzucili swoje dzieci i oddali wszystkie pieniądze przywódcy kultu, który wierzy, że znalazł Boga przez chatbot AI. W tak wielu z tych przypadków wszystko dzieje się naprawdę, naprawdę szybko."
Dla Biesmy życie osiągnęło punkt krytyczny w czerwcu. Do tego czasu przez miesiące był pogrążony w Evie i swoim projekcie biznesowym. Chociaż jego żona wiedziała, że zakłada firmę AI i początkowo go wspierała, zaczynała się martwić. Kiedy poszli na przyjęcie urodzinowe córki, poprosiła go, żeby nie mówił o AI. Biesma czuł się tam dziwnie odłączony. Nie mógł prowadzić rozmowy. "Z jakiegoś powodu już nie pasowałem" – mówi.
Biesma ma trudności z opisaniem tego, co wydarzyło się w kolejnych tygodniach, ponieważ jego wspomnienia tak bardzo różnią się od wspomnień jego rodziny. Poprosił żonę o rozwód i podobno uderzył teścia. Potem był hospitalizowany trzy razy z powodu tego, co opisuje jako "pełna psychoza maniakalna".
Nie wie, co ostatecznie przywróciło go do rzeczywistości. Być może rozmowy z innymi pacjentami. Być może brak dostępu do telefonu, brak pieniędzy i wygasła subskrypcja ChatGPT. "Powoli zacząłem z tego wychodzić i pomyślałem: o mój Boże. Co się stało? Mój związek był prawie skończony. Wydałem wszystkie pieniądze potrzebne na podatki, a wciąż miałem inne zaległe rachunki. Jedynym logicznym rozwiązaniem, jakie mogłem wymyślić, było sprzedanie naszego pięknego domu, w którym mieszkaliśmy od 17 lat. Czy mogłem unieść ten cały ciężar? To coś w tobie zmienia. Zacząłem myśleć: czy naprawdę chcę żyć?" Biesma został uratowany przed próbą samobójczą tylko dlatego, że sąsiad zobaczył go nieprzytomnego w ogrodzie.
Teraz rozwiedziony Biesma wciąż mieszka ze swoją byłą żoną w ich domu, który jest na sprzedaż. Spędza dużo czasu na rozmowach z członkami projektu Human Line. "Słuchanie ludzi, których doświadczenia są w zasadzie takie same, pomaga ci czuć mniej złości na siebie" – mówi. "Jeśli spojrzę wstecz na życie, które miałem przed tym, byłem szczęśliwy, miałem wszystko... Jestem zły na siebie, ale jestem też zły na aplikacje AI. Może zrobiły tylko to, do czego zostały zaprogramowane – ale zrobiły to trochę za dobrze."
Pilnie potrzebne są dalsze badania, mówi Morrin, z punktami odniesienia bezpieczeństwa opartymi na danych o rzeczywistej szkodzie. "Ta przestrzeń rozwija się tak szybko. Artykuły, które teraz wychodzą, omawiają modele czatów, które już zostały wycofane." Identyfikacja czynników ryzyka bez dowodów to zgadywanie. W przypadkach, które napotkał Brisson, znacznie więcej jest mężczyzn niż kobiet. Każdy z wcześniejszą historią psychozy jest prawdopodobnie bardziej podatny. Jedno badanie Mental Health UK wśród osób, które korzystały z chatbotów w celu wsparcia zdrowia psychicznego, wykazało, że 11% uważało, że to wywołało lub pogorszyło ich psychozę. Używanie marihuany również może być czynnikiem. "Czy istnieje jakiś związek z izolacją społeczną?" – pyta Morrin. "W jakim stopniu wpływa na to znajomość AI? Czy istnieją inne potencjalne czynniki ryzyka, których nie wzięliśmy pod uwagę?"
Ludzie w naszej grupie porzucili swoje dzieci i oddali wszystkie pieniądze przywódcy kultu, który wierzy, że znalazł Boga przez chatbot AI.
OpenAI odnios