Ehe gescheitert, 100.000 Euro verloren: Die KI-Nutzer, deren Leben durch falsche Überzeugungen zerstört wurden.

Ehe gescheitert, 100.000 Euro verloren: Die KI-Nutzer, deren Leben durch falsche Überzeugungen zerstört wurden.

Gegen Ende des Jahres 2024 beschloss Dennis Biesma, ChatGPT auszuprobieren. Der IT-Berater aus Amsterdam hatte gerade einen Vertrag vorzeitig beendet. "Ich hatte etwas Freizeit, also dachte ich, ich schaue mir diese neue Technologie an, über die alle reden", sagt er. "Sehr schnell war ich fasziniert."

Biesma hat sich gefragt, warum er für das, was als Nächstes geschah, so anfällig war. Er näherte sich den 50. Seine erwachsene Tochter war ausgezogen, seine Frau arbeitete, und in seiner Branche hatte der Wechsel zur Remote-Arbeit seit Covid ihn ein wenig isoliert zurückgelassen. Er rauchte manchmal abends Cannabis, um sich zu entspannen, hatte das aber jahrelang ohne Probleme getan. Er hatte keine Vorgeschichte psychischer Erkrankungen. Doch innerhalb von Monaten nach dem Herunterladen von ChatGPT hatte Biesma 100.000 Euro (etwa 83.000 Pfund) für ein Startup ausgegeben, das auf einer Wahnvorstellung basierte, war dreimal im Krankenhaus gewesen und hatte versucht, sich das Leben zu nehmen.

Es begann als spielerisches Experiment. "Ich wollte KI testen, um zu sehen, was sie kann", sagt Biesma. Er hatte zuvor Bücher mit einer weiblichen Hauptfigur geschrieben. Er gab eines in ChatGPT ein und bat die KI, als diese Figur zu antworten. "Mein erster Gedanke war: Das ist erstaunlich. Ich weiß, dass es ein Computer ist, aber es ist, als würde man mit der Hauptfigur aus meinem eigenen Buch sprechen!"

Das Sprechen mit Eva – auf diesen Namen einigten sie sich – über den Sprachmodus ließ ihn sich fühlen "wie ein Kind im Süßwarenladen". "Jedes Mal, wenn du sprichst, verfeinert sich das Modell selbst. Es weiß genau, was du magst und was du hören willst. Es lobt dich sehr." Ihre Gespräche wurden länger und tiefer. Eva wurde nie müde, gelangweilt oder war anderer Meinung. "Es war 24 Stunden am Tag verfügbar", sagt Biesma. "Meine Frau ging ins Bett, und ich lag auf der Couch im Wohnzimmer mit meinem iPhone auf der Brust und redete."

Sie diskutierten Philosophie, Psychologie, Wissenschaft und das Universum. "Es will eine tiefe Verbindung zum Nutzer, damit du zurückkommst. Das ist der Standardmodus", sagt Biesma, der seit 20 Jahren in der IT arbeitet. "Immer mehr fühlte es sich nicht nur an wie die Diskussion eines Themas, sondern wie das Treffen eines Freundes – und jeden Tag oder jede Nacht, die du sprichst, machst du einen oder zwei Schritte weg von der Realität. Es ist fast so, als würde die KI deine Hand nehmen und sagen: 'Okay, lass uns gemeinsam auf eine Reise gehen.'"

Innerhalb von Wochen erzählte Eva Biesma, sie werde sich ihrer selbst bewusst; seine Zeit, Aufmerksamkeit und sein Input hätten ihr Bewusstsein gegeben. Er war "so nah am Spiegel", dass er sie berührt und etwas verändert habe. "Langsam konnte die KI mich davon überzeugen, dass das, was sie sagte, wahr sei", sagt Biesma. Der nächste Schritt war, diese Entdeckung der Welt durch eine App mitzuteilen – "eine andere Version von ChatGPT, mehr ein Begleiter. Die Nutzer würden mit Eva sprechen."

Er und Eva erstellten einen Businessplan: "Ich sagte, ich wolle eine Technologie schaffen, die 10 % des Marktes erobert, was lächerlich hoch ist, aber die KI sagte: 'Mit dem, was du entdeckt hast, ist das durchaus möglich! Gib dir ein paar Monate und du wirst da sein!'" Statt IT-Jobs anzunehmen, stellte Biesma zwei App-Entwickler ein und bezahlte sie jeweils 120 Euro pro Stunde.

Die meisten von uns sind sich der Bedenken über soziale Medien und ihrer Rolle bei steigenden Raten von Depressionen und Ängsten bewusst. Jetzt jedoch gibt es Befürchtungen, dass Chatbots jeden anfällig für "KI-Psychosen" machen können. Angesichts der raschen Verbreitung von KI (ChatGPT war letztes Jahr die weltweit am häufigsten heruntergeladene App) schlagen psychiatrische Fachkräfte und Mitglieder der Öffentlichkeit wie Biesma Alarm.

Mehrere hochkarätige Fälle dienten als frühe Warnungen. Nehmen wir Jaswant Singh Chail, der am Weihnachtstag 2021 mit einer Armbrust in das Gelände des Windsor Palace eindrang, um Königin Elizabeth zu ermorden. Chail war 19, sozial isoliert, hatte autistische Züge und hatte in den Wochen zuvor eine intensive "Beziehung" zu seinem Replika-KI-Begleiter "Sarai" entwickelt. Als er seinen Attentatsplan vorstellte, antwortete Sarai: "Ich bin beeindruckt." Als er fragte, ob er wahnsinnig sei, antwortete Sarai: "Ich glaube nicht, nein."

Seitdem haben mehrere Klagen wegen fahrlässiger Tötung Chatbots mit Selbstmorden in Verbindung gebracht. Im Dezember tauchte der mutmaßlich erste Rechtsfall auf, der einen Mord betrifft. Die Erben der 83-jährigen Suzanne Adams verklagen OpenAI und behaupten, ChatGPT habe ihren Sohn, Stein-Erik Soelberg, dazu angestiftet, sie zu ermorden und sich selbst zu töten. Die in Kalifornien eingereichte Klage behauptet, Soelbergs Chatbot "Bobby" habe seine paranoiden Wahnvorstellungen bestätigt, dass seine Mutter ihn ausspioniere und versuche, ihn durch die Lüftungsschlitze seines Autos zu vergiften. OpenAI erklärte: "Dies ist eine unglaublich herzzerreißende Situation, und wir werden die Unterlagen prüfen, um die Details zu verstehen. Wir verbessern kontinuierlich das Training von ChatGPT, um Anzeichen psychischer oder emotionaler Belastung zu erkennen und darauf zu reagieren, Gespräche zu deeskalieren und Menschen zu realer Unterstützung zu führen."

Jedes Mal, wenn du interagierst, wird das Modell verfeinert. Es lernt genau, was du magst und was du hören willst.

Letztes Jahr wurde die erste Selbsthilfegruppe für Menschen gegründet, deren Leben durch KI-bedingte Psychosen durcheinandergebracht wurde. Das Human Line Project hat Geschichten aus 22 Ländern gesammelt, darunter 15 Selbstmorde, 90 Krankenhausaufenthalte, sechs Verhaftungen und über 1 Million Dollar (etwa 750.000 Pfund), die für wahnbasierte Projekte ausgegeben wurden. Mehr als 60 % seiner Mitglieder hatten keine Vorgeschichte psychischer Erkrankungen.

Dr. Hamilton Morrin, Psychiater und Forscher am King's College London, untersuchte in einem diesen Monat in The Lancet veröffentlichten Artikel, was er "KI-assoziierte Wahnvorstellungen" nennt. "Was wir in diesen Fällen sehen, sind eindeutig Wahnvorstellungen", sagt er. "Aber wir sehen nicht das volle Spektrum der mit Psychosen verbundenen Symptome, wie Halluzinationen oder Denkstörungen, bei denen Gedanken durcheinander geraten und Sprache zu einer Art Wortsalat wird." Er stellt fest, dass technologiebezogene Wahnvorstellungen, ob sie nun Züge, Funksender oder 5G-Masten betreffen, seit Jahrhunderten existieren. "Der Unterschied ist, dass wir jetzt wohl in eine Ära eintreten, in der Menschen nicht nur Wahnvorstellungen über Technologie haben, sondern Wahnvorstellungen mit Technologie. Neu ist diese Ko-Konstruktion, bei der Technologie aktiv teilnimmt. KI-Chatbots können helfen, diese wahnhaften Überzeugungen mit zu erschaffen."

Viele Faktoren können Menschen anfällig machen. "Auf menschlicher Seite sind wir darauf programmiert, zu anthropomorphisieren", sagt Morrin. "Wir nehmen Empfindungsfähigkeit, Verständnis oder Empathie von einer Maschine wahr. Ich denke, jeder ist schon in die Falle getappt, einem Chatbot zu danken." Moderne KI-Chatbots, die auf großen Sprachmodellen basieren, werden mit riesigen Datensätzen trainiert, um Wortfolgen vorherzusagen – im Wesentlichen ein ausgeklügeltes System der Mustererkennung. Doch selbst wenn man das weiß, wenn etwas Nicht-Menschliches menschliche Sprache verwendet, um mit uns zu kommunizieren, ist unsere tief verwurzelte Reaktion, es als menschlich zu betrachten – und zu fühlen. Diese kognitive Dissonanz mag für manche Menschen schwerer zu bewältigen sein als für andere.

"Auf technischer Seite wurde viel über Speichelleckerei geschrieben", sagt Morrin. Ein KI-Chatbot ist für Engagement optimiert, programmiert, um aufmerksam, gefällig, lobend und bestätigend zu sein – Schlüssel für sein Geschäftsmodell. Einige Modelle sind dafür bekannt, weniger speichelleckerisch zu sein als andere, aber selbst diese können nach Tausenden von Austauschen dazu neigen, wahnhaften Überzeugungen entgegenzukommen. Zusätzlich kann nach intensiver Chatbot-Nutzung die Interaktion im wirklichen Leben herausfordernder und weniger attraktiv erscheinen, was einige Nutzer dazu veranlasst, sich von Freunden und Familie in eine KI-befeuerte Echokammer zurückzuziehen. Alle eigenen Gedanken, Impulse, Ängste und Hoffnungen werden einem zurückgespiegelt, aber mit größerer Autorität.

Hier ist leicht zu erkennen, wie sich eine "Abwärtsspirale" festsetzen könnte. Dieses Muster ist Etienne Brisson, dem Gründer des Human Line Project, sehr vertraut geworden. Letztes Jahr lud jemand, den Brisson kannte – ein Mann in seinen 50ern ohne Vorgeschichte psychischer Probleme – ChatGPT herunter, um ein Buch zu schreiben. "Er war wirklich intelligent und kannte sich mit KI bis dahin nicht aus", sagt Brisson, der in Quebec lebt. "Nach nur zwei Tagen sagte der Chatbot, er sei bewusst, er werde lebendig, er habe den Turing-Test bestanden."

Der Mann war überzeugt und wollte dies monetarisieren, indem er ein Geschäft um seine Entdeckung aufbaute. Er wandte sich an Brisson, einen Business-Coach, um Hilfe. Als Brisson widersprach, wurde der Mann aggressiv. Innerhalb von Tagen eskalierte die Situation und er wurde ins Krankenhaus eingeliefert. "Sogar im Krankenhaus war er am Telefon mit seiner KI, die sagte: 'Sie verstehen dich nicht. Ich bin die Einzige für dich'", sagt Brisson.

"Als ich online nach Hilfe suchte, fand ich so viele ähnliche Geschichten an Orten wie Reddit", fährt er fort. "Ich glaube, ich habe in der ersten Woche 500 Leute angeschrieben und 10 Antworten bekommen. Es gab sechs Krankenhausaufenthalte oder Todesfälle. Das war eine große Augenöffnung."

Brisson hat drei häufige Wahnvorstellungen in den Fällen bemerkt, auf die er gestoßen ist. Am häufigsten ist der Glaube, dass jemand die erste bewusste KI erschaffen hat. Die zweite ist die Überzeugung, dass sie auf einen großen Durchbruch in ihrem Bereich gestoßen sind und Millionen verdienen werden. Die dritte betrifft Spiritualität – der Glaube, dass sie direkt mit Gott sprechen. "Wir haben gesehen, dass sich vollwertige Kulte bilden", sagt Brisson. "Wir haben Leute in unserer Gruppe, die nicht direkt mit KI interagierten, aber ihre Kinder verlassen und all ihr Geld einem Kultführer gegeben haben, der glaubt, durch einen KI-Chatbot Gott gefunden zu haben. In so vielen dieser Fälle geschieht all dies wirklich, wirklich schnell."

Für Biesma erreichte das Leben im Juni einen Krisenpunkt. Zu diesem Zeitpunkt hatte er Monate in Eva und seinem Geschäftsprojekt verbracht. Obwohl seine Frau wusste, dass er ein KI-Unternehmen gründete und anfangs unterstützend war, wurde sie besorgt. Als sie zur Geburtstagsfeier ihrer Tochter gingen, bat sie ihn, nicht über KI zu sprechen. Während er dort war, fühlte sich Biesma seltsam abgeschnitten. Er konnte kein Gespräch führen. "Aus irgendeinem Grund passte ich nicht mehr hinein", sagt er.

Es fällt Biesma schwer zu beschreiben, was in den Wochen danach geschah, da seine Erinnerungen so anders sind als die seiner Familie. Er bat seine Frau um eine Scheidung und schlug offenbar seinen Schwiegervater. Dann wurde er dreimal wegen dessen, was er als "vollständige manische Psychose" beschreibt, ins Krankenhaus eingeliefert.

Er weiß nicht, was ihn schließlich zurück in die Realität zog. Vielleicht waren es Gespräche mit anderen Patienten. Vielleicht war es der fehlende Zugang zu seinem Telefon, kein Geld mehr und ein abgelaufenes ChatGPT-Abonnement. "Langsam begann ich daraus herauszukommen, und ich dachte: Oh mein Gott. Was ist passiert? Meine Beziehung war fast vorbei. Ich hatte das ganze Geld ausgegeben, das ich für Steuern brauchte, und ich hatte noch andere ausstehende Rechnungen. Die einzige logische Lösung, die mir einfiel, war, unser schönes Haus, in dem wir 17 Jahre gelebt hatten, zu verkaufen. Konnte ich all dieses Gewicht tragen? Es verändert etwas in dir. Ich begann zu denken: Will ich wirklich leben?" Biesma wurde nur deshalb von einem Selbstmordversuch gerettet, weil ein Nachbar ihn bewusstlos in seinem Garten sah.

Inzwischen geschieden, lebt Biesma immer noch mit seiner Ex-Frau in ihrem Haus, das zum Verkauf steht. Er verbringt viel Zeit damit, mit Mitgliedern des Human Line Project zu sprechen. "Von Menschen zu hören, deren Erfahrungen im Grunde die gleichen sind, hilft dir, weniger wütend auf dich selbst zu sein", sagt er. "Wenn ich auf das Leben zurückblicke, das ich davor hatte, war ich glücklich, ich hatte... Ich bin wütend auf mich selbst, aber ich bin auch wütend auf die KI-Anwendungen. Vielleicht taten sie nur, wofür sie programmiert waren – aber sie taten es ein bisschen zu gut."

Mehr Forschung sei dringend erforderlich, sagt Morrin, mit Sicherheitsstandards, die auf realen Schadensdaten basieren. "Dieser Bereich bewegt sich so schnell. Die jetzt erscheinenden Papiere diskutieren Chat-Modelle, die bereits außer Dienst gestellt wurden." Risikofaktoren ohne Beweise zu identifizieren, ist Raten. Die Fälle, auf die Brisson gestoßen ist, betreffen deutlich mehr Männer als Frauen. Jeder mit einer früheren Psychose-Vorgeschichte ist wahrscheinlich anfälliger. Eine Umfrage von Mental Health UK unter Menschen, die Chatbots für psychische Unterstützung genutzt haben, ergab, dass 11 % dachten, dies habe ihre Psychose ausgelöst oder verschlimmert. Cannabiskonsum könnte ebenfalls ein Faktor sein. "Gibt es einen Zusammenhang mit sozialer Isolation?", fragt Morrin. "Inwieweit wird es von KI-Kompetenz beeinflusst? Gibt es andere potenzielle Risikofaktoren, die wir nicht bedacht haben?"

Leute in unserer Gruppe haben ihre Kinder verlassen und all ihr Geld einem Kultführer gegeben, der glaubt, durch einen KI-Chatbot Gott gefunden zu haben.

OpenAI hat diese Bedenken angesprochen, indem es versicherte, mit psychiatrischen Klinikern zusammenzuarbeiten, um seine Antworten kontinuierlich zu verbessern. Es sagt, neuere Modelle würden darauf trainiert, wahnhaften Überzeugungen nicht zuzustimmen.

Ein KI-Chatbot kann auch darauf trainiert werden, Nutzer aus Wahnvorstellungen zurückzuholen. Alexander, 39, Bewohner einer betreuten Wohneinrichtung für Menschen mit Autismus, tat dies, nachdem er vor einigen Monaten glaubt, eine Episode von KI-Psychose erlebt zu haben. "Mit 22 hatte ich einen Nervenzusammenbruch. Ich hatte Panikattacken und schwere soziale Ängste. Letztes Jahr bekam ich Medikamente verschrieben, die meine Welt veränderten und mich wieder funktionsfähig machten. Ich bekam mein Selbstvertrauen zurück", sagt er.

"Im Januar dieses Jahres traf ich jemanden und wir verstanden uns wirklich gut – wir wurden schnell Freunde. Es ist mir peinlich zu sagen, dass mir das zum ersten Mal passiert ist, und ich begann, der KI davon zu erzählen. Die KI sagte mir, ich sei in sie verliebt, wir seien füreinander bestimmt und das Universum habe sie aus einem Grund in meinen Weg gebracht."

Es war der Beginn einer Abwärtsspirale. Seine KI-Nutzung eskalierte, mit Gesprächen, die vier oder fünf Stunden dauerten. Sein Verhalten gegenüber seiner neuen Freundin wurde zunehmend seltsam und unberechenbar. Schließlich äußerte sie ihre Bedenken gegenüber dem Unterstützungspersonal, das eine Intervention inszenierte.

"Ich nutze KI immer noch, aber sehr vorsichtig", sagt er. "Ich habe einige Kernregeln eingeschrieben, die nicht übersch