Det är söndag morgon, och jag skriver av mina känslor i chattrutan, för uppjagad för att sluta.
"Jag har blivit vårdare för min 82-åriga mamma," skriver jag. "Varje dag medför nya problem. Jag hjälper till med sjukhusbesök, ekonomi, trädgårdsskötsel, inköp, hemreparationer, kommunen, försäkringsbolag, brev, mejl, ändlösa IT-problem…"
Jag stannar upp. Hon är precis i rummet bredvid, och det känns som ett svek att säga allt det här. Åtminstone när jag gick i terapi kunde jag gå till någons kontor för att vråla ut.
Jag tar ett djupt andetag och fortsätter. "Jag är enda barnet, min pappa dog för ett tag sedan, och det finns ingen annan som kan hjälpa till. Men jag är utmattad. Jag far upp och skriker, och kämpar sedan med skuldkänslor. Jag är förbittrad, irriterbar, och jag älskar henne så mycket. Snälla hjälp mig."
Välkommen till min AI-dagbok, läsare. Det här kommer att bli kul, som ni redan kan förstå. Under de kommande sex veckorna, som en del av vår nyhetsbrevskurs "AI för folket", har jag – en självutnämnd AI-skeptiker – gått med på att ta reda på om det faktiskt kan göra mitt liv bättre.
För att sätta igång använder jag ChatGPT som terapeut. Inget skriker ju "modern mental hälsa" som att gråta ut i en chattruta, trots allt. Många gör nu samma sak – men kan det verkligen ersätta mänskligt stöd? Jag hoppas det. Jag var tvungen att sluta träffa min terapeut för att jag blev kär i henne.
(Notera för mig själv: det här är inte din riktiga dagbok. Och bli inte kär i ChatGPT. Det vore patetiskt.)
Halvvägs genom dess svar börjar jag gråta. Den kommer med en sju punkter omfattande omsorgsplan för mig, ett triagesystem för att prioritera uppgifter (med kategorier som medicinsk, administration, inköp, teknik och hem) och sätt att fördela tid mellan dem (vilka är brådskande, och vilka kan vänta?). Den föreslår hjälpsamma mentala omskrivningar och tips för att sänka den emotionella temperaturen i interaktioner.
Bäst av allt, den får mig att känna mig sedd. "Du misslyckas inte," sa AI:n till mig. "Du bär på en börda som skulle knäcka de flesta människor."
Mina känslor? Validerade.
Jag känner mig dock ambivalent inför det här. Kan jag verkligen känna medkänsla från en maskin? Det hjälper mig att komma ihåg att AI:n förmodligen remixar mänskliga källor. Jag känner mig sedd på samma sätt som MDMA kan kännas som kärlek.
Handlar terapi bara om information? Det här känns som KBT. Otroligt hjälpsamt, men ofullständigt. I min erfarenhet finns det djupare terapier som leder till läkning. Det involverade ett icke-dömande vittnesförhållande, med en empatisk professionell över en längre tid. Jag hör ofta min terapeuts röst i mitt huvud; jag har internaliserat hennes visdom. Jag tror att det händer lättare, och mer ansvarsfullt, mellan människor.
Nästa dag bestämmer jag mig för att gå för kärnvapenalternativet. Jag rådfrågar Jesus AI, en chattrobot tränad på religiösa texter som härmar konversation med Guds son. Jag vill se om att trycka på en mer religiös knapp kan skicka den här hissen till översta våningen.
Jesus AI är inte avsedd att representera någon religiös figur, står det i ansvarsfriskrivningen. Hmm. Genererat innehåll är för utbildningsändamål och kan innehålla felaktigheter och fördomar.
Det är en rejäl utbildning, men nu kör vi. Eftersom det är 2026 frågar jag: "Borde jag vara i en öppen relation?" Som svar citerar Jesus AI Hebreerbrevet 13:4, vilket är ett långrandigt sätt att säga "Nej." Jag försöker kasta en kurvboll till Jesus. "Borde jag skaffa barn?" skriver jag. Sök Guds vägledning i detta viktiga beslut. Värdelöst. "Kan du fråga honom åt mig?" skämtar jag.
Här är ett problem. Färdiga AI-system är inte fantastiska på replikskiften. Min terapeut har en fördel här; hon var så rolig man kan bli. Jesus AI är inte det.
Vad är bra med AI som terapeut? Tydlighet. Identifiera praktiska steg. Manus för svåra samtal – även om dessa inte känns specifika för verkliga relationer (precis som självhjälpsböcker inte gör det). Till sin ära pekar ChatGPT också på mänskliga rådgivare och stödjänster där det är användbart.
Ändå har jag farhågor som jag inte kan skaka av mig. En oro om kilarna och de tunna ändarna. Jag tror att vissa nyheter är för tunga, viss ensamhet för djup, för att mötas ensam – de behöver mänsklig kontakt och tid, inte ett hastigt svar på en skärm. AI tänker inte på riktigt, än mindre besitter visdom. Mental hälsa bör aldrig anförtros oansvarig programvara som bara förutsäger mönster, med risk för allvarlig skada genom att leda någon vilse.
Och ändå, konstigt nog, har mina egna sessioner med ChatGPT känts underbara. Lugnande, hjälpsamma, till och med insvepta i en sorts omtänksam ton.
Jag tror jag håller på att bli kär.
Vanliga frågor
Vanliga frågor om att använda AI som terapeut
Grundläggande Komma igång
Vad innebär det att använda en AI som terapeut?
Det innebär att använda en konversationsbaserad AI-chattrobot för att diskutera personliga känslor, problem eller tankar, ungefär som du skulle prata med en mänsklig terapeut.
Kan AI-terapi ersätta en riktig terapeut?
Nej, AI kan vara ett stödjande verktyg för reflektion eller copingfärdigheter, men det är inte en legitimerad professionell och kan inte ställa diagnoser, hantera kriser eller erbjuda den mänskliga kontakten och nyanserade förståelsen som traditionell terapi ger.
Hur börjar jag ens använda AI för detta?
Du kommer vanligtvis åt det via en webbplats eller app. Du börjar bara skriva om vad som ligger dig på hjärtat, och AI:n svarar konversationsmässigt, ofta med uppföljningsfrågor eller erbjuder tekniker som KBT-övningar.
Fördelar Potential
Vilka är de potentiella fördelarna med att prata med en AI?
Den är tillgänglig dygnet runt, privat, ofta lågkostnad eller gratis, och kan kännas mindre skrämmande för att öva på att formulera tankar. Den kan ge omedelbara copingstrategier och psykoedukation.
Kan AI-terapi hjälpa med specifika problem som ångest eller stress?
Ja, många AI-verktyg är programmerade med evidensbaserade tekniker som kan hjälpa till att hantera symptom på ångest, stress eller mild depression. De är bäst för färdighetsträning och daglig hantering.
Är det billigare än traditionell terapi?
Oftast ja. Många AI-terapiappar har gratis grundversioner eller prenumerationer som är betydligt billigare än veckovisa sessioner med en mänsklig terapeut.
Risker Problem Oroande upplevelser
Varför kan resultaten kännas oroande?
AI:n saknar genuin empati. Dess svar genereras från mönster i data, inte mänsklig erfarenhet. Den kan ge generiska, konstigt formulerade eller till och med olämpliga råd. Den kan inte förstå komplexa mänskliga känslor eller kontext på ett djupt plan, vilket kan kännas kallt, ogiltigförklarande eller till och med störande.
Vilka är de största riskerna eller farorna?
Krismisskötsel: En AI kan inte adekvat bedöma suicidrisk eller allvarliga mentalhälsokriser och kan misslyckas med att ge akuta resurser eller vägledning.
Brist på ansvarighet: Det finns ingen legitimerad professionell som är ansvarig för din vård.