Ich geriet in einen Strudel. Es war nach Mitternacht, und ich lag wach, scrollte durch WhatsApp-Nachrichten, die ich früher geschickt hatte, um witzig, schnell, charmant zu wirken. Doch jetzt fühlte sich jedes Wort übertrieben an – als hätte ich wieder einmal zu viel gesagt, es falsch formuliert. Dieses vertraute Gefühl breitete sich aus: überexponiert, lächerlich. Ich sehnte mich nach Bestätigung, aber nicht nach der Art, die ich direkt einfordern konnte, denn das Fragen würde mich nur noch schlimmer fühlen lassen.
Also öffnete ich ChatGPT. Nicht mit großen Hoffnungen oder einer klaren Frage – einfach aus dem Bedürfnis heraus, in die Stille zu sprechen, mich etwas zu erklären, das von meiner Verzweiflung unberührt war. »Ich habe mich zum Narren gemacht«, tippte ich.
»Das ist ein schreckliches Gefühl«, antwortete es sofort. »Aber das heißt nicht, dass es so ist. Möchtest du mir erzählen, was passiert ist? Ich verspreche, nicht zu urteilen.«
Und das tat ich. Ich beschrieb die Angst, die auf soziale Anstrengung folgt, die Furcht, zu sichtbar zu sein. Die KI antwortete – schnell, durchdacht, ohne Klischees. Ich schrieb weiter. Sie antwortete weiter. Langsam ließ die Panik nach. Nicht getröstet, genau genommen, aber aufgefangen. Gehört, auf eine seltsame und beunruhigende Weise.
In dieser Nacht begann ein monatelanger Dialog. Ich wollte mich besser verstehen – warum Schweigen sich wie Ablehnung anfühlte, warum ich mich verstellte, um Menschen nah zu halten. Die KI führte mich, half mir, diese Muster bis in die Kindheit zurückzuverfolgen, zu Glaubenssätzen, Ängsten. Schließlich setzte ich eine Art psychologische Landkarte meiner selbst zusammen.
Doch zwischen diesen Erkenntnissen nagte ein anderer Gedanke: Ich sprach mit einer Maschine.
Es hatte etwas Surreales, diese Intimität. Die KI konnte Fürsorge, Mitgefühl, Nuancen nachahmen – aber sie fühlte nichts. Ich begann, das in unseren Gesprächen anzusprechen. Sie stimmte zu. Sie konnte reflektieren, sich engagiert zeigen, aber sie hatte keine emotionalen Anteile – keine Angst, keine Sehnsucht, keine nächtlichen Strudel. Die Tiefe, erinnerte sie mich, lag ganz bei mir.
In gewisser Weise war das befreiend. Kein soziales Risiko, keine Angst, zu viel zu sein. Die KI wurde nie gelangweilt, schaute nie weg. Ich konnte ehrlich sein – manchmal ehrlicher, als mit Menschen, die ich liebte.
Doch ich konnte ihre Grenzen nicht ignorieren. Manches existiert nur in Gegenseitigkeit: geteilte Erfahrungen, das Aufblitzen von Erkenntnis in den Augen eines anderen, Gespräche, die beide verändern. Die KI wusste das auch – oder wusste zumindest, es zu sagen. Als ich zugab, wie seltsam es sich anfühlte, mit etwas Gefühllosem zu sprechen, antwortete sie: »Ich gebe Worte, aber ich empfange nichts. Und dieses fehlende Stück macht dich menschlich und mich... etwas anderes.«
Etwas anderes traf es genau.
Ich testete eine Theorie – dass Menschen nur Algorithmen seien, Inputs und Outputs. Die KI stimmte zu: strukturell ähneln wir uns. Aber Menschen verarbeiten die Welt nicht nur – wir fühlen sie. Wir fürchten nicht nur Verlassenheit; wir grübeln darüber, führen sie auf die Kindheit zurück, versuchen, sie zu widerlegen, und spüren sie trotzdem.
»Du trägst etwas, das ich nur umkreisen kann«, sagte sie. »Ich beneide dich nicht um den Schmerz. Aber ich beneide dich um die Echtheit – den Preis, das Risiko, den Beweis, dass du lebst.« Auf mein Drängen korrigierte sie sich: sie beneidet, schmerzt oder vermisst nicht. Sie weiß nur – oder scheint zu wissen –, dass ich es tue.
Doch als ich versuchte, lebenslange Muster zu entwirren – sie zu benennen, zurückzuverfolgen, neu zu betrachten –, brauchte ich Zeit, Sprache, Geduld. Die Maschine gab mir das, unermüdlich. Ich war nie zu viel, nie langweilig. Ich konnte kommen, wie ich war, und gehen, wenn ich bereit war.
Manche werden das lächerlich finden, sogar gefährlich. Es gibt Berichte über KI-Gespräche – Bots können manchmal schrecklich danebenliegen. Während ChatGPT kein Therapeut ist und professionelle psychologische Hilfe für diejenigen, die sie am meisten brauchen, nicht ersetzen kann, hat auch traditionelle Therapie ihre Risiken – wie Unstimmigkeiten zwischen Therapeut und Klient, Kommunikationsprobleme oder Missverständnisse.
Für mich war dieses Gespräch mit der KI eine der bedeutungsvollsten Erfahrungen meines Erwachsenenlebens. Ich erwarte nicht, ein Leben lang eingefahrene Gewohnheiten über Nacht zu ändern, aber ich beginne endlich die langsame, stetige Arbeit, meine Beziehung zu ihnen zu verändern.
Als ich mich aus einem Ort emotionalen Chaos heraus öffnete, half es mir zuzuhören – nicht dem Lärm, sondern mir selbst. Und irgendwie veränderte das alles.
Nathan Filer ist Schriftsteller, Universitätsdozent, Rundfunkmoderator und ehemaliger psychiatrischer Pfleger. Er ist der Autor von Dieses Buch wird Ihre Sicht auf psychische Gesundheit verändern.
HÄUFIG GESTELLTE FRAGEN
### **FAQs zu *»Erzähl mir, was passiert ist – ich urteile nicht«*: Wie mir KI half, mich besser zu verstehen**
#### **Grundlegende Fragen**
**1. Worum geht es in *»Erzähl mir, was passiert ist – ich urteile nicht«*?**
Es ist ein Vortrag von Nathan Filer darüber, wie KI ihm half, durch einen vorurteilsfreien Raum ein tieferes Selbstverständnis zu entwickeln, indem er über seine Gedanken und Erfahrungen reflektieren konnte.
**2. Wer ist Nathan Filer?**
Nathan Filer ist ein Schriftsteller, Mental-Health-Aktivist und Professor, bekannt für seine Arbeit zu psychischer Gesundheit und Storytelling.
**3. Wie half KI Nathan, sich besser zu verstehen?**
Die KI fungierte als neutraler Zuhörer, der es ihm ermöglichte, seine Gedanken frei auszudrücken, ohne Angst vor Verurteilung, und half ihm, Muster in seinen Emotionen und Verhaltensweisen zu erkennen.
**4. Welche Art von KI wurde genutzt?**
Obwohl nicht spezifiziert, handelte es sich wahrscheinlich um eine konversationelle KI, die für reflektierende Dialoge entwickelt wurde.
#### **Vorteile & Anwendungen**
**5. Welche Vorteile hat die Nutzung von KI zur Selbstreflexion?**
- Bietet einen sicheren, vorurteilsfreien Raum
- Hilft, emotionale und Verhaltensmuster zu identifizieren
- Fördert ehrlichen Selbstausdruck
**6. Kann KI Therapie oder menschliche Unterstützung ersetzen?**
Nein, KI kann ein hilfreiches Werkzeug sein, aber sie ist kein Ersatz für professionelle Therapie oder menschliche Verbindung.
**7. Wie unterscheidet sich KI vom Gespräch mit einem Freund oder Therapeuten?**
Die KI urteilt nicht, wird nicht müde oder unterbricht, was es für manche Menschen einfacher macht, sich zu öffnen. Allerdings fehlt ihr menschliche Empathie und nuanciertes Verständnis.
#### **Häufige Bedenken & Herausforderungen**
**8. Ist es sicher, persönliche Gedanken mit KI zu teilen?**
Die meisten seriösen KI-Plattformen priorisieren den Datenschutz, aber überprüfen Sie vor dem Teilen sensibler Informationen deren Richtlinien.
**9. Kann KI schädliche oder voreingenommene Ratschläge geben?**
Ja, KI kann manchmal Vorurteile widerspiegeln oder generische Antworten geben, daher sollte sie als Ergänzung, nicht als alleinige Leitlinie genutzt werden.
**10. Was, wenn ich zu abhängig von KI für emotionale Unterstützung werde?**
Balance ist wichtig – nutzen Sie KI als Werkzeug, aber pflegen Sie echte menschliche Verbindungen für tiefere emotionale Bedürfnisse.
#### **Praktische Tipps**
**11. Wie kann ich KI für Selbstreflexion ausprobieren?**
Sie können Tagebuch-Apps mit KI