Jag är orolig för att min pojkväns beroende av AI börjar ersätta hans eget kritiska tänkande.

Jag är orolig för att min pojkväns beroende av AI börjar ersätta hans eget kritiska tänkande.

Min pojkvän på åtta år är 44 år, har ADHD och driver eget företag. Han har alltid kämpat med administrativa och vardagliga uppgifter, men AI har förändrat hur han arbetar. Nu är jag orolig för att han verkar oförmögen att göra någonting utan det. Han använder ChatGPT i stor utsträckning, även när det finns bättre alternativ utan AI – som att fråga om tågtider istället för att använda den mer exakta Trainline-appen. Han fick nyligen sin ChatGPT Wrapped och tillhör de 0,3 procent främsta användarna globalt. Jag oroar mig för hans förmåga att tänka självständigt, liksom för miljöpåverkan. Jag vet att det är ett användbart verktyg för honom i arbetet, men han använder det till allt i livet.

Jag är medveten om att jag kan uppfattas som tjatig, och hans ADHD kan göra honom besatt. Jag skulle vilja ha råd om hur jag ska ta upp detta med honom.

Att driva ett företag kan vara stressfullt, och även om din pojkväns ADHD kan spela en roll undrar jag om han är generellt ångestfylld och om hans AI-användning är ett symptom snarare än orsaken.

Jag delade ditt brev med konsultklinisk psykolog och psykoanalytiker Dr. Stephen Blumenthal och Henry Shelford, VD för ADHD UK.

Blumenthal föreslog att vi kanske är "på gränsen till en ny diagnostisk kategori av 'chatbot-beroendesyndrom' när vi blir alltmer beroende av AI. När den används klokt kan AI hjälpa oss, men det kan få katastrofala konsekvenser om vi blir beroende av den och förlorar förmågan till vanligt fungerande."

Han tillade: "Någon med ADHD har kortare uppmärksamhetsspanne, svårigheter att fokusera och nedsatt förmåga att planera och tänka framåt, så AI är en perfekt matchning, vilket är varför det kan vara så hjälpsamt. Nackdelen är att det finns en större benägenhet att bli överberoende av det."

Shelford undrade om din pojkvän redan kämpade och om AI gav ett användbart "flythjälpmedel". Han sa: "AI kan leda dig ner i ett kaninhål, men det kan också stödja dig och hjälpa dig att strukturera tankar, schemalägga saker och få saker gjorda."

Din pojkväns användning av AI verkar gå längre än så. Det är som om han tvivlar på sig själv, vilket kan vara skadligt.

Blumenthal förklarar: "Problem uppstår när din användning av AI går utöver att lösa den aktuella frågan. Det känns som om en relation med det har börjat utvecklas, och du ger det mänskliga egenskaper – en projektion av våra egna önskningar och begär efter validering och omsorg."

Vad ska du göra? Du har rätt i att inte tjata, eftersom det sällan löser något och bara blir bakgrundsljud. Som med alla känsliga och svåra samtal, välj ett tillfälle när ni båda är lugna.

Shelford rekommenderade att fråga din pojkvän: "Vad får du ut av det? Varför är det här verktyget så viktigt, och vilka luckor fyller det?" Sedan, leta efter bättre lösningar eller sätt att använda det.

Blumenthal tänkte: "Som med alla överberoendesyndrom måste det först finnas en erkännande att det finns ett problem. Det är lätt att kritisera den som kämpar, men det kommer sannolikt att få dem att dra sig längre in i beroende. Argumentet måste framföras med medkänsla, med erkännande av att vara utan stödet från ChatGPT förmodligen känns hotande."

Den goda nyheten är att, till skillnad från generationen som växer upp med AI, har din pojkvän en historia av att fungera bra utan det. Förhoppningsvis kan han påminnas om det och hitta en balans där AI förstärker de förmågor han redan har. Men det låter som om han är ångestfylld, och jag tror att roten till problemet måste åtgärdas så att ni båda kan gå vidare.

Du kan kontakta Lisa på lisa@theguardian.com. Observera att Annalisa inte kan svara på personliga meddelanden. Alla inlägg omfattas av våra villkor. Den senaste säsongen av Annalisas podcast finns här. För att hålla konversationen fokuserad på artikelns ämnen granskas kommentarer innan publicering. Det kan bli en kort fördröjning innan din kommentar visas på webbplatsen.

Vanliga frågor
Vanliga frågor om oro för en partners beroende av AI

Förstå problemet

Vad betyder det när någon förlitar sig på AI för att tänka?
Det betyder att de ofta vänder sig till AI-verktyg för att få svar, fatta beslut eller bilda åsikter istället för att först försöka resonera själva eller söka olika mänskliga perspektiv.

Är det alltid dåligt att använda AI för hjälp?
Nej, inte alls. AI kan vara ett fantastiskt verktyg för att samla information, brainstorma eller hantera repetitiva uppgifter. Oro uppstår när det blir den primära eller standardmetoden för att bearbeta information och fatta beslut, vilket potentiellt sidolägger en persons eget omdöme.

Hur kan jag veta om hans AI-användning blir ett problem?
Leta efter tecken som att han citerar en AI som sin enda källa för viktiga åsikter, blir defensiv när dess förslag ifrågasätts, undviker debatter eller djupa samtal genom att hänvisa till ett AIs svar, eller verkar lägga ut vardagliga personliga beslut på det.

Vanliga oro och problem

Kan detta påverka vår relation?
Ja, det kan det potentiellt. Om han prioriterar ett AIs genererade svar framför genuin empatisk kontakt och problemlösning med dig, kan det leda till känslor av distans, frustration eller att du inte blir hörd. Gemensamt beslutsfattande kan drabbas.

Är han inte bara effektiv? Vad är skadan?
Effektivitet är bra, men kritiskt tänkande är som en muskel – det försvagas om det inte används. Överdriven förlitan kan leda till förlust av personligt omdöme, nedsatt förmåga att utvärdera information från flera källor och sårbarhet för AI-partiskhet eller fel. Det kan också kväva kreativitet och personlig utveckling.

Vilka är några specifika exempel på oroande AI-förlitan?
- Åsiktsbildning: "Jag vet inte vad jag tycker om den politiska frågan, låt mig fråga AI."
- Konfliktlösning: Använda AI för att skriva personliga ursäkter eller relationsmeddelanden utan genuin personlig reflektion.
- Beslutsparalys: Oförmåga att välja restaurang, film eller present utan att först rådfråga AI.
- Inlärningsberoende: Använda AI för att sammanfatta eller förklara komplexa ämnen men inte engagera sig i materialet för att bilda självständig förståelse.

Betyder det att han är lat eller ointelligent?
Inte nödvändigtvis. Det återspeglar ofta en vana bildad för bekvämlighet eller en önskan om snabba, självsäkra svar.