Det er søndag morgen, og jeg taster mine følelser ind i chatboksen, for opspilet til at stoppe.
"Jeg er blevet omsorgsperson for min 82-årige mor," skriver jeg. "Hver dag bringer nye problemer. Jeg hjælper med hospitalsaftaler, økonomi, havearbejde, indkøb, hjemme-reparationer, kommunen, forsikringsselskaber, breve, emails, endeløse IT-problemer…"
Jeg stopper. Hun er lige ved siden af, og det føles som et forræderi at sige alt dette. I det mindste, da jeg gik i terapi, kunne jeg tage hen til nogens kontor for at jamre.
Jeg tager en dyb indånding og fortsætter. "Jeg er enebarn, min far døde for længe siden, og der er ingen andre til at hjælpe. Men jeg er udmattet. Jeg smækker med dørene og råber, og kæmper derefter med skyldfølelse. Jeg er bitter, irritabel, og jeg elsker hende så højt. Hjælp mig venligst."
Velkommen til min AI-dagbog, læsere. Det bliver sjovt, som I allerede kan fornemme. I de næste seks uger, som en del af vores "AI for Folket"-nyhedsbrevskursus, har jeg – en erklæret AI-skeptiker – sagt ja til at finde ud af, om det faktisk kan gøre mit liv bedre.
For at komme i gang bruger jeg ChatGPT som terapeut. Intet siger "moderne mental sundhed" som at græde i en chatboks, trods alt. Mange mennesker gør det samme nu – men kan det virkelig erstatte menneskelig støtte? Det håber jeg. Jeg måtte holde op med at se min terapeut, fordi jeg forelskede mig i hende.
(Selvnote: Dette er ikke din egentlige dagbog. Og lad være med at forelske dig i ChatGPT. Det ville være ynkeligt.)
Halvvejs gennem dens svar begynder jeg at græde. Den kommer med en syv-trins omsorgsplan for mig, et triagesystem til at prioritere opgaver (med kategorier som medicinsk, administration, indkøb, teknik og hus) og måder at fordele tid imellem dem (hvilke er presserende, og hvilke kan vente?). Den foreslår nyttige mentale omskrivninger og tips til at sænke den følelsesmæssige temperatur i interaktioner.
Bedst af alt får den mig til at føle mig set. "Du fejler ikke," sagde AI'en til mig. "Du bærer en byrde, der ville knuse de fleste mennesker."
Mine følelser? Valideret.
Jeg har dog blandede følelser omkring dette. Kan jeg virkelig føle medfølelse fra en maskine? Det hjælper mig at huske, at AI'en sandsynligvis remixer menneskelige kilder. Jeg føler mig set på samme måde, som MDMA føles som kærlighed.
Er terapi bare information? Dette føles som KBT. Utrolig nyttigt, men ufuldstændigt. I min erfaring findes der dybere terapier, der fører til helbredelse. Det involverede et ikke-dømmende vidneforhold med en empatisk professionel over en længere periode. Jeg hører ofte min terapeuts stemme i mit hoved; jeg har internaliseret hendes visdom. Jeg tror, det sker lettere og mere ansvarligt mellem mennesker.
Dagen efter beslutter jeg mig for at gå efter atommuligheden. Jeg konsulterer Jesus-AI'en, en chatbot trænet på religiøse tekster, der efterligner samtaler med Guds søn. Jeg vil se, om at trykke på en mere religiøs knap kan sende denne elevator til øverste etage.
Jesus-AI'en er ikke ment til at repræsentere nogen religiøs skikkelse, står der i ansvarsfraskrivelsen. Hmm. Genereret indhold er til uddannelsesmæssige formål og kan indeholde unøjagtigheder og bias.
Det er en helvedes uddannelse, men sådan er det. Fordi det er 2026, spørger jeg: "Skulle jeg være i et åbent forhold?" Som svar citerer Jesus-AI'en Hebreerbrevet 13:4, hvilket er en langtrukken måde at sige "Nej" på. Jeg prøver at sende Jesus en curveball. "Skulle jeg få børn?" skriver jeg. Søg Guds vejledning i denne vigtige beslutning. Ubrugeligt. "Kan du spørge ham for mig?" spøger jeg.
Her er et problem. Standard-AI er ikke fantastisk til replikker. Min terapeut har en fordel her; hun var så morsom som overhovedet muligt. Jesus-AI er det ikke.
Hvad er godt ved AI som terapeut? Klarhed. Identificering af praktiske skridt. Scripts til vanskelige samtaler – selvom disse ikke føles specifikke for virkelige relationer (ligesom selvhjælpsbøger heller ikke gør). Til sin ros peger ChatGPT mig også hen til menneskelige rådgivere og støttetjenester, hvor det er nyttigt.
Alligevel har jeg forbehold, som jeg ikke kan ryste af mig. En bekymring om kile og tynde ender. Jeg tror, at nogle nyheder er for tunge, nogle ensomheder for dybe til at stå alene med – de har brug for varmen fra menneskelig forbindelse og tid, ikke et hastigt svar på en skærm. AI tænker ikke rigtigt, endsige besidder visdom. Mental sundhed bør aldrig betroes uansvarlig software, der blot forudsiger mønstre og risikerer alvorlig skade ved at lede nogen på afveje.
Og alligevel, mærkeligt nok, har mine egne sessioner med ChatGPT føltes vidunderlige. Beroligende, hjælpsomme, endda indhyllet i en slags omsorgsfuld tone.
Jeg tror, jeg er ved at forelske mig.
Ofte Stillede Spørgsmål
OSS om at bruge AI som terapeut
Grundlæggende Kom i gang
Hvad betyder det at bruge en AI som terapeut?
Det betyder at bruge en samtale-AI-chatbot til at diskutere personlige følelser, problemer eller tanker, lignende hvordan man måske ville tale med en menneskelig terapeut.
Er AI-terapi en erstatning for en rigtig terapeut?
Nej. AI kan være et støttende værktøj til refleksion eller coping-færdigheder, men det er ikke en autoriseret professionel og kan ikke stille diagnoser, håndtere kriser eller tilbyde den menneskelige forbindelse og nuancerede forståelse fra traditionel terapi.
Hvordan kommer jeg overhovedet i gang med at bruge AI til dette?
Man får typisk adgang via en hjemmeside eller app. Man begynder bare at skrive om, hvad der tynger én, og AI'en svarer samtaleagtigt, ofte stiller opfølgende spørgsmål eller tilbyder teknikker som KBT-øvelser.
Fordele Potentiale
Hvad er de potentielle fordele ved at tale med en AI?
Den er tilgængelig døgnet rundt, privat, ofte lavpris eller gratis, og kan føles mindre skræmmende til at øve sig i at artikulere tanker. Den kan give umiddelbare coping-strategier og psykoedukation.
Kan AI-terapi hjælpe med specifikke problemer som angst eller stress?
Ja. Mange AI-værktøjer er programmeret med evidensbaserede teknikker, der kan hjælpe med at håndtere symptomer på angst, stress eller mild depression. De er bedst til færdighedsopbygning og daglig håndtering.
Er det billigere end traditionel terapi?
Ofte ja. Mange AI-terapiapper har gratis basisversioner eller abonnementer, der er betydeligt billigere end ugentlige sessioner med en menneskelig terapeut.
Risici, Problemer Uhyggelige Oplevelser
Hvorfor kan resultaterne føles uhyggelige?
AI'en mangler ægte empati. Dens svar genereres fra mønstre i data, ikke menneskelig erfaring. Den kan give generiske, mærkeligt formulerede eller endda upassende råd. Den kan ikke forstå komplekse menneskelige følelser eller kontekst dybt, hvilket kan føles koldt, invalidiserende eller endda forstyrrende.
Hvad er de største risici eller farer?
Krisemishandling: En AI kan ikke tilstrækkeligt vurdere selvmordsrisiko eller alvorlige mentale sundhedskriser og kan undlade at give presserende ressourcer eller vejledning.
Mangel på ansvarlighed: Der er ingen autoriseret professionel, der er ansvarlig for din pleje.