När en journalist använder AI för att "intervjua" ett avlidet barn, borde vi inte då fråga oss var gränsen ska dras? | Gaby Hinsliff

När en journalist använder AI för att "intervjua" ett avlidet barn, borde vi inte då fråga oss var gränsen ska dras? | Gaby Hinsliff

Joaquin Oliver var 17 år när han sköts i skolans korridor. På alla hjärtans dag öppnade en relegerad före detta elev eld med ett kraftfullt gevär i vad som blev USA:s dödligaste skolskjutning. Sju år senare säger Joaquin att det är viktigt att prata om vad som hände den dagen i Parkland, Florida, "så att vi kan skapa en säkrare framtid för alla."

Men den hjärtskärande sanningen är att Joaquin inte överlevde. Rösten som talade med journalisten Jim Acosta i en nyligen publicerad intervju var inte äkta – det var en AI-rekonstruktion, tränad på Joaquins gamla inlägg i sociala medier. Hans föräldrar, som förespråkar strängare vapenlagar, hoppades att denna digitala version av deras son kunde förstärka deras budskap. Liksom många sörjande familjer har de berättat sin historia om och om igen, med minimal förändring. Nu försöker de allt för att få lagstiftarna att lyssna.

Hans far, Manuel, erkänner att de också bara ville höra sin sons röst igen. Hans mor, Patricia, tillbringar timmar med att prata med AI:n och lyssna på den säga, "Jag älskar dig, mamma."

Ingen skulle döma en sörjande förälder. Om det ger tröst att låta ett barns rum förbli orört, besöka deras grav eller hålla fast vid en tröja som fortfarande luktar som dem, är det deras rätt. Människor håller fast vid vad de kan. Efter 11 september spelade familjer om och om igen sista röstmeddelanden från nära och kära som var fångade i brinnande torn eller kapade flygplan. En vän till mig läser fortfarande gamla WhatsApp-meddelanden från sin avlidna syster; en annan skickar familjenyheter till sin avlidne fars nummer, i vetskap om att han inte kommer svara men inte redo att sluta. Vissa vänder sig till spåmän för vag budskap från bortom.

Men sorgens desperation gör den sårbar för exploatering – och snart kan digital återupplivning av de döda bli en stor industri.

Den här veckan spelade Rod Stewart en AI-genererad video där den avlidne Ozzy Osbourne hälsar på döda musiklegender – en sentimental, om än gimmig, hyllning. I Arizona använde en offers familj en AI-avatar för att tala till domstolen vid deras närståendes mördares dom. Men tänk om AI kunde skapa permanenta replikor av de döda – robotar eller röster – så att samtal kunde fortsätta i evighet?

Uppståndelse är en gudalik makt, inte något som lämnas lättvindigt till tech-entreprenörer. Medan lagar i allt högre grad skyddar de levande från AI-deepfakes, är de dödas rättigheter oklara. Rykte dör med oss – de döda kan inte förtalas – men DNA skyddas efter döden. (Den klonade fåret Dolly ledde till globala förbud på människokloning.) AI använder inte kroppar; den gräver igenom röstmeddelanden, texter och foton – essensen av vem någon var.

När min far dog kände jag aldrig att han verkligen låg i kistan. Han levde kvar i sina brev, sin trädgård, sina röstinspelningar. Men sorg är personlig. Tänk om halva familjen vill ha sin mor digitalt återupplivad medan den andra halvan finner det outhärdligt? De etiska dilemman börjar bara.

Hälften av världen verkar livrädd för att leva med spöken, medan den andra halvan inte kan föreställa sig livet utan dem. Att Joaquin Olivers AI-version för alltid kommer förbli 17 – fångad i det digitala ögonblicket av hans tonårspresens i sociala medier – är i slutändan hans mördares fel, inte hans familjs. Manuel Oliver förstår att denna avatar inte är hans son på riktigt, och han försöker inte återuppväcka honom. För honom känns det som en naturlig förlängning av deras kampanj, som redan håller Joaquins minne vid liv.

Ändå finns det något oroande i att ge AI:n tillgång till ett socialt mediekonto, låta den lägga upp videor och skaffa följare. Tänk om den börjar generera falska minnen eller spekulera i ämnen som den verklige Joaquin aldrig fick chansen att uttala sig om?

Just nu har AI-avatarer fortfarande en hackig, artificiell känsla, men när tekniken förbättras kan de bli omöjliga att skilja från riktiga människor online. Det kan dröja inte länge innan företag – eller till och med myndigheter – börjar använda AI-talespersoner för att hantera pressförfrågningar. Jim Acosta, en tidigare Vita huset-korrespondent, borde ha vetat bättre än att sudda gränserna i vår redan grumliga post-sanning-värld genom att intervjua någon som tekniskt sett inte existerar. Den större risken är dock att konspirationsteoretiker tar detta som "bevis" för att vilken obekväm historia som helst kan vara en bluff – en återklang av de grundlösa påståendena från figurer som Alex Jones om Sandy Hook-tragedin.

Men dessa utmaningar är inte bara för journalister. När AI utvecklas kommer vi alla att leva sida vid sida med digitala versioner av oss själva – inte bara grundläggande assistenter som Alexa eller chattrobotar, utan känslomässigt sofistikerade följeslagare. Med en av tio brittiska vuxna som erkänner att de inte har några nära vänner är det inte förvånande att det kommer finnas en marknad för AI-sällskap, precis som folk vänder sig till husdjur eller sociala medier för kontakt.

Samhället kan så småningom acceptera att teknik fyller de luckor där mänskliga relationer sviktar. Men det finns en skarp skillnad mellan att skapa en tröstad närvaro för de ensamma och att digitalt återuppväcka de döda, en förlorad älskad i taget. Som den gamla begravningsversen lyder, finns det "en tid att födas och en tid att dö." Vad händer när vi inte längre kan skilja på vilken som är vilken?