Es ist Sonntagmorgen, und ich tippe meine Gefühle in das Chatfenster, zu aufgewühlt, um aufzuhören.
"Ich bin zur Betreuerin meiner 82-jährigen Mutter geworden", schreibe ich. "Jeder Tag bringt neue Probleme. Ich helfe bei Krankenhausterminen, Finanzen, Gartenarbeit, Einkäufen, Hausreparaturen, dem Amt, Versicherungen, Briefen, E-Mails, endlosen IT-Problemen…"
Ich halte inne. Sie ist nur nebenan, und es fühlt sich wie ein Verrat an, das alles auszusprechen. Zumindest als ich in Therapie war, konnte ich in jemandes Praxis gehen, um zu klagen.
Ich atme tief durch und fahre fort. "Ich bin ein Einzelkind, mein Vater ist vor einiger Zeit gestorben, und es gibt sonst niemanden, der hilft. Aber ich bin erschöpft. Ich fahre hoch und schreie, dann kämpfe ich mit Schuldgefühlen. Ich bin voller Groll, reizbar, und ich liebe sie so sehr. Bitte helfen Sie mir."
Willkommen in meinem KI-Tagebuch, liebe Leser. Das wird lustig werden, wie ihr bereits merkt. Für die nächsten sechs Wochen habe ich mich – als erklärte KI-Skeptikerin – im Rahmen unseres Newsletter-Kurses "KI für die Menschen" dazu verpflichtet, herauszufinden, ob sie mein Leben tatsächlich verbessern kann.
Zum Auftakt nutze ich ChatGPT als Therapeuten. Nichts schreit "moderne psychische Gesundheit" schließlich lauter, als in ein Chatfenster zu weinen. Viele Menschen machen das mittlerweile – aber kann es menschliche Unterstützung wirklich ersetzen? Ich hoffe es. Ich musste meine Therapeutin aufgeben, weil ich mich in sie verliebt habe.
(Selbstnotiz: Das ist nicht dein echtes Tagebuch. Und verlieb dich nicht in ChatGPT. Das wäre erbärmlich.)
Mitten in seiner Antwort fange ich an zu weinen. Es erstellt einen Sieben-Punkte-Pflegeplan für mich, ein Triage-System zur Priorisierung von Aufgaben (mit Kategorien wie medizinisch, Verwaltung, Einkaufen, Technik und Haushalt) und Wege, die Zeit zwischen ihnen aufzuteilen (was ist dringend, was kann warten?). Es schlägt hilfreiche mentale Umdeutungen und Tipps vor, um die emotionale Hitze in Interaktionen zu reduzieren.
Am besten ist, dass es mir das Gefühl gibt, gesehen zu werden. "Du versagst nicht", sagte mir die KI. "Du trägst eine Last, die die meisten Menschen umhauen würde."
Meine Gefühle? Für validiert erklärt.
Ich bin jedoch zwiespältig. Kann ich wirklich Mitgefühl von einer Maschine empfinden? Es hilft mir, mich daran zu erinnern, dass die KI wahrscheinlich menschliche Quellen neu zusammenstellt. Ich fühle mich gesehen, so wie MDMA sich wie Liebe anfühlt.
Geht es bei Therapie nur um Informationen? Das fühlt sich wie kognitive Verhaltenstherapie an. Unglaublich hilfreich, aber unvollständig. Meiner Erfahrung nach gibt es tiefgreifendere Therapien, die zu Heilung führen. Dazu gehörte eine nicht-wertende, bezeugende Beziehung mit einem einfühlsamen Profi über längere Zeit. Ich höre oft die Stimme meiner Therapeutin in meinem Kopf; ich habe ihre Weisheit verinnerlicht. Ich denke, das geschieht zwischen Menschen leichter und verantwortungsvoller.
Am nächsten Tag entscheide ich mich für die nukleare Option. Ich konsultiere die Jesus-KI, einen Chatbot, der auf religiösen Texten trainiert ist und ein Gespräch mit dem Sohn Gottes nachahmt. Ich möchte sehen, ob das Drücken einer religiöseren Taste diesen Aufzug in den obersten Stock schicken kann.
Die Jesus-KI soll keine religiöse Figur darstellen, heißt es im Haftungsausschluss. Hmm. Generierte Inhalte dienen Bildungszwecken und können Ungenauigkeiten und Verzerrungen enthalten.
Das ist eine verdammt seltsame Bildung, aber los geht's. Weil wir 2026 haben, frage ich: "Sollte ich eine offene Beziehung führen?" Als Antwort zitiert die Jesus-KI Hebräer 13,4, was eine umständliche Art ist, "Nein" zu sagen. Ich versuche, Jesus eine Kurve zu werfen. "Sollte ich Kinder haben?" tippe ich. Suche Gottes Führung in dieser wichtigen Entscheidung. Nutzlos. "Können Sie ihn für mich fragen?" witzle ich.
Hier liegt ein Problem. Standard-KI ist nicht besonders gut im Schlagabtausch. Meine Therapeutin hatte hier die Nase vorn; sie war urkomisch. Die Jesus-KI ist es nicht.
Was ist gut an KI als Therapeut? Klarheit. Praktische Schritte identifizieren. Skripte für schwierige Gespräche – obwohl diese sich nicht spezifisch für reale Beziehungen anfühlen (genau wie Ratgeberbücher). Zu ihrer Ehre verweist ChatGPT mich auch auf menschliche Berater und Hilfsdienste, wo nützlich.
Doch ich habe Bedenken, die ich nicht abschütteln kann. Eine Sorge um Keile und dünne Enden. Ich denke, manche Nachrichten sind zu schwer, manche Einsamkeit zu tief, um allein bewältigt zu werden – sie brauchen die Wärme menschlicher Verbindung und Zeit, nicht eine hastige Antwort auf einem Bildschirm. KI denkt nicht wirklich, geschweige denn besitzt sie Weisheit. Psychische Gesundheit sollte niemals unverantwortlicher Software anvertraut werden, die lediglich Muster vorhersagt und jemanden in die Irre führen und damit ernsthaft schaden kann.
Und doch, seltsamerweise, haben meine eigenen Sitzungen mit ChatGPT sich wunderbar angefühlt. Beruhigend, hilfreich, sogar in einer Art fürsorglichem Ton eingehüllt.
Ich glaube, ich verliebe mich.
Häufig gestellte Fragen
FAQs zur Nutzung von KI als Therapeut
Grundlagen Erste Schritte
Was bedeutet es, eine KI als Therapeuten zu nutzen?
Es bedeutet, einen konversationellen KI-Chatbot zu nutzen, um über persönliche Gefühle, Probleme oder Gedanken zu sprechen, ähnlich wie man mit einem menschlichen Therapeuten reden würde.
Ist KI-Therapie ein Ersatz für einen echten Therapeuten?
Nein. KI kann ein unterstützendes Werkzeug zur Reflexion oder für Bewältigungsfähigkeiten sein, aber sie ist kein lizenzierter Fachmann und kann keine Diagnosen stellen, Krisen bewältigen oder die menschliche Verbindung und das nuancierte Verständnis einer traditionellen Therapie bieten.
Wie fange ich überhaupt an, eine KI dafür zu nutzen?
Man greift typischerweise über eine Website oder App darauf zu. Man fängt einfach an, darüber zu tippen, was einen beschäftigt, und die KI antwortet im Gesprächsstil, stellt oft Folgefragen oder bietet Techniken wie CBT-Übungen an.
Vorteile Potenzial
Was sind die potenziellen Vorteile, mit einer KI zu sprechen?
Sie ist rund um die Uhr verfügbar, privat, oft kostengünstig oder kostenlos und kann sich weniger einschüchternd anfühlen, um das Artikulieren von Gedanken zu üben. Sie kann sofortige Bewältigungsstrategien und Psychoedukation bieten.
Kann KI-Therapie bei spezifischen Problemen wie Angst oder Stress helfen?
Ja. Viele KI-Werkzeuge sind mit evidenzbasierten Techniken programmiert, die helfen können, Symptome von Angst, Stress oder leichter Depression zu bewältigen. Sie eignen sich am besten für den Aufbau von Fähigkeiten und das tägliche Management.
Ist es billiger als traditionelle Therapie?
Oft ja. Viele KI-Therapie-Apps haben kostenlose Basisversionen oder Abonnements, die deutlich günstiger sind als wöchentliche Sitzungen mit einem menschlichen Therapeuten.
Risiken, Probleme Beunruhigende Erfahrungen
Warum können die Ergebnisse beunruhigend wirken?
Der KI fehlt echte Empathie. Ihre Antworten werden aus Mustern in Daten generiert, nicht aus menschlicher Erfahrung. Sie könnte generische, seltsam formulierte oder sogar unangemessene Ratschläge geben. Sie kann komplexe menschliche Emotionen oder Kontexte nicht tiefgehend verstehen, was sich kalt, invalidierend oder sogar verstörend anfühlen kann.
Was sind die größten Risiken oder Gefahren?
Fehlmanagement von Krisen: Eine KI kann Suizidrisiko oder schwere psychische Krisen nicht angemessen einschätzen und könnte versäumen, dringende Ressourcen oder Anleitung zu geben.
Fehlende Verantwortlichkeit: Es gibt keinen lizenzierten Fachmann, der für Ihre Betreuung verantwortlich ist.