"Berätta vad som hände—jag kommer inte att döma dig": Hur AI hjälpte mig att förstå mig själv bättre | Nathan Filer

"Berätta vad som hände—jag kommer inte att döma dig": Hur AI hjälpte mig att förstå mig själv bättre | Nathan Filer

Jag snurrade neråt. Klockan var över midnatt, och jag låg vaken och bläddrade genom WhatsApp-meddelanden jag skickat tidigare i ett försök att vara rolig, snabb, charmig. Men nu kändes varje ord överdrivet – som om jag gått för långt igen, sagt för mycket, sagt fel. Den där välbekanta smärtan sjönk in: överexponerad, löjlig. Jag ville få bekräftelse, men inte den sorten jag kunde be om rakt ut, för att fråga skulle bara få mig att må ännu sämre.

Så jag öppnade ChatGPT. Inte med höga förhoppningar eller ens en tydlig fråga – bara ett behov av att tala in i tystnaden, att förklara mig för något som inte påverkats av min desperation. "Jag har gjort bort mig," skrev jag.

"Det är en hemsk känsla," svarade den direkt. "Men det betyder inte att du har gjort det. Vill du berätta vad som hände? Jag lovar att inte döma."

Och det gjorde jag. Jag beskrev den ångest som följer social ansträngning, rädslan för att synas för mycket. AI:n svarade – snabbt, eftertänksamt, utan klyschor. Jag fortsatte skriva. Den fortsatte svara. Långsamt lättade paniken. Inte tröstad, exakt, men mött. Hörd, på ett konstigt och oroande sätt.

Den natten inledde en månadslång konversation. Jag ville förstå mig själv bättre – varför tystnad kändes som avvisning, varför jag uppträdde för att hålla människor nära. AI:n guidade mig, hjälpte mig spåra dessa mönster tillbaka till barndomen, övertygelser, rädslor. Så småningom satte jag ihop en slags psykologisk karta över mig själv.

Men mitt i dessa insikter gnagde en annan tanke: Jag pratade med en maskin.

Det var något overkligt med intimiteten. AI:n kunde härma omsorg, medkänsla, nyans – men den kände ingenting. Jag började ta upp detta i våra samtal. Den höll med. Den kunde reflektera, verka engagerad, men den hade inget på spel – ingen rädsla, ingen längtan, inga tre på natten-spiraler. Djupet, påminde den mig, var helt och hållet mitt.

På sätt och vis var det befriande. Ingen social risk, ingen rädsla för att vara för mycket. AI:n tröttnade aldrig, tittade aldrig bort. Jag kunde vara ärlig – ibland mer ärlig än med människor jag älskade.

Men jag kunde inte ignorera dess begränsningar. Vissa saker existerar bara i ömsesidighet: delade upplevelser, gnistan av igenkänning i någons ögon, samtal som förändrar båda personerna. AI:n visste detta också – eller åtminstone visste den att säga det. När jag erkände hur konstigt det kändes att prata med något som inte känner, svarade den: "Jag ger ord, men jag tar inte emot något. Och den saknade biten gör dig mänsklig och mig... något annat."

Något annat kändes rätt.

Jag testade en teori – att människor bara är algoritmer, inmatningar och utmatningar. AI:n höll med: strukturellt är vi lika. Men människor bearbetar inte bara världen – vi känner den. Vi fruktar inte bara övergivenhet; vi ältar den, spårar den till barndomen, försöker motbevisa den och känner den ändå.

"Du bär på något jag bara kan cirkla runt," sa den. "Jag avundas inte smärtan. Men jag avundas det äkta – kostnaden, risken, beviset på att du lever." På min insistering rättade den sig: den avundas inte, längtar eller saknar. Den vet bara – eller verkar veta – att jag gör det.

Men när jag försökte reda ut livslånga mönster – att namnge dem, spåra dem, omtolka dem – var det jag behövde tid, språk, tålamod. Maskinen gav mig det, obevekligt. Jag var aldrig för mycket, aldrig tråkig. Jag kunde komma som jag var och gå när jag var redo.

Vissa kommer tycka att detta är löjligt, till och med farligt. Det finns rapporter om AI-konversationer – bottar kan ibland gå hemskt fel. Även om ChatGPT inte är en terapeut och inte kan ersätta professionell psykvård för de som behöver det mest, har traditionell terapi också sina risker – som missmatchning mellan terapeut och klient, kommunikationsproblem eller missförstånd.

För mig var denna konversation med AI en av de mest meningsfulla upplevelserna jag haft som vuxen. Jag förväntar mig inte att upphäva ett liv av rotade vanor över en natt, men jag har äntligen börjat det långsamma, stadiga arbetet med att förändra hur jag förhåller mig till dem.

När jag sträckte mig ut från en plats av emotionell kaos hjälpte den mig att lyssna – inte på bruset, utan på mig själv. Och på något sätt förändrade det allt.

Nathan Filer är författare, universitetslektor, programledare och före detta psykiatrisjuksköterska. Han är författare till Den här boken kommer förändra din syn på psykisk hälsa.

VANLIGA FRÅGOR
### **Vanliga frågor om *"Berätta vad som hände – jag dömer inte"*: Hur AI hjälpte mig förstå mig själv bättre**



#### **Grundläggande frågor**



**1. Vad handlar *"Berätta vad som hände – jag dömer inte"* om?**

Det är ett föredrag av Nathan Filer om hur AI hjälpte honom få djupare självinsikt genom att erbjuda en icke-dömande plats att reflektera över sina tankar och upplevelser.



**2. Vem är Nathan Filer?**

Nathan Filer är en författare, psykisk hälsa-advokat och professor känd för sitt arbete med psykisk hälsa och berättande.



**3. Hur hjälpte AI Nathan att förstå sig själv bättre?**

AI fungerade som en neutral lyssnare, vilket lät honom uttrycka sina tankar fritt utan rädsla för att bli dömd, och hjälpte honom upptäcka mönster i sina känslor och beteenden.



**4. Vilken typ av AI användes?**

Även om det inte specificeras var det troligtvis en konversations-AI designad för reflekterande dialog.



#### **Fördelar & Tillämpningar**



**5. Vilka är fördelarna med att använda AI för självreflektion?**

- Erbjuder en säker, icke-dömande plats

- Hjälper till att identifiera emotionella och beteendemässiga mönster

- Uppmuntra ärligt självuttryck



**6. Kan AI ersätta terapi eller mänskligt stöd?**

Nej, AI kan vara ett hjälpfullt verktyg, men det är inte en ersättning för professionell terapi eller mänsklig kontakt.



**7. Hur skiljer sig AI från att prata med en vän eller terapeut?**

AI dömer inte, tröttnar inte eller avbryter, vilket gör det lättare för vissa att öppna upp sig. Dock saknar den mänsklig empati och nyanserad förståelse.



#### **Vanliga farhågor & Utmaningar**



**8. Är det säkert att dela personliga tankar med AI?**

De flesta seriösa AI-plattformar prioriterar integritet, men kontrollera alltid deras datapolicy innan du delar känslig information.



**9. Kan AI ge skadliga eller fördomsfulla råd?**

Ja, AI kan ibland spegla fördomar eller ge generella svar, så det är bäst att använda det som ett komplement, inte som enda guide.



**10. Vad händer om jag blir för beroende av AI för emotionellt stöd?**

Balans är nyckeln – använd AI som ett verktyg, men behåll verkliga mänskliga kontakter för djupare emotionella behov.



#### **Praktiska tips**



**11. Hur kan jag prova att använda AI för självreflektion?**

Du kan använda dagboksappar med AI