Amikor egy újságíró mesterséges intelligenciát használ, hogy "interjút" készítsen egy elhunyt gyermekkel, nem kellene megkérdőjeleznünk, hol húzzuk meg a határt? | Gaby Hinsliff

Amikor egy újságíró mesterséges intelligenciát használ, hogy "interjút" készítsen egy elhunyt gyermekkel, nem kellene megkérdőjeleznünk, hol húzzuk meg a határt? | Gaby Hinsliff

Joaquin Oliver 17 éves volt, amikor a középiskolájának folyosóján lelőtték. A Valentin-napon egy eltanácsolt volt diák nagy teljesítményű puskával nyitott tüzet, ami Amerika legsúlyosabb iskolai lövöldözése lett. Hét évvel később Joaquin azt mondja, fontos beszélni arról, ami aznap történt Floridában, Parklandban, "hogy mindenki számára biztonságosabb jövőt teremthessünk."

De a szívszaggató igazság az, hogy Joaquin nem élte túl. A hang, amely a riporter, Jim Acosta közelmúltbeli interjújában szólt, nem volt valódi – egy mesterséges intelligencia által létrehozott változat volt, Joaquin régi közösségi média posztjaira tanítva. Szülei, akik szigorúbb fegyvertörvényekért kampányolnak, remélték, hogy fiuk digitális változata felerősítheti üzenetüket. Mint sok gyászoló család, ők is újra és újra elmesélték történetüket, kevés változással. Most bármit megpróbálnak, hogy a törvényhozók meghallgassák őket.

Apja, Manuel bevallja, hogy ők is csak újra hallani akarták fiuk hangját. Anyja, Patricia órákat tölt azzal, hogy beszélget az MI-vel, és hallgatja, amint azt mondja: "Szeretlek, anyu."

Senki sem ítélne meg egy gyászoló szülőt. Ha a gyermek szobájának érintetlenül hagyása, a sírjához járás vagy egy ruhadarab megtartása, ami még mindig az illatát árasztja, megnyugvást jelent, ez az ő joguk. Az emberek ragaszkodnak ahhoz, ami megmaradt. A 9/11 után a családok újra és újra lejátszották szeretteik utolsó hangüzeneteit, akik a lángoló tornyokban vagy az eltérített repülőgépekben rekedtek. Egy barátom még mindig újraolvassa elhunyt nővérének régi WhatsApp üzeneteit; egy másik pedig családi híreket küld elhunyt apja számára, tudva, hogy nem fog válaszolni, de még nem áll készen abbahagyni. Vannak, akik még médiumokhoz fordulnak, hogy homályos üzeneteket kapjanak a túlvilágról.

De a gyász kétségbeesése kiszolgáltatottá teszi a kihasználásnak – és hamarosan a halottak digitális feltámasztása nagy üzlet lehet.

Ezen a héten Rod Stewart egy mesterséges intelligencia által létrehozott videót játszott, amelyben az elhunyt Ozzy Osbourne köszönti más elhunyt zenészeket – egy szentimentális, bár giccses hommage. Arizonában egy áldozat családja egy MI-avatárral szólalt meg a bíróságon szerettük gyilkosának ítélethirdetésén. De mi van, ha az MI képes állandó másolatokat létrehozni a halottakról – robotokat vagy hangokat –, lehetővé téve, hogy a beszélgetések a végtelenségig folytatódjanak?

A feltámadás isteni hatalom, nem valami, amit könnyedén odaadnánk a technológiai vállalkozóknak. Míg a törvények egyre jobban védik az élőket az MI által létrehozott hamis tartalmaktól, a halottak jogai homályosak. A hírnév velünk hal meg – a halottakat nem lehet rágalmazni –, de a DNS halál után is védett. (A klónozott Dolly bárány globális tilalmakat váltott ki az emberi klónozásra.) Az MI nem testeket használ; hanem hangüzeneteket, szövegeket és fotókat bányászik – valakinek a lényegét.

Amikor apám meghalt, soha nem éreztem, hogy valóban a koporsóban van. Tovább élt leveleiben, kertjében, hangfelvételein. De a gyász személyes. Mi van, ha a család fele szeretné, hogy anyjuk digitálisan feltámadjon, míg a másik fele ezt elviselhetetlennek találja? Az etikai dilemmák csak most kezdődnek.

Itt egy természetesebb és folyékonyabb változat, miközben megtartja az eredeti jelentést:

---

Úgy tűnik, a világ fele retteg a szellemekkel való együttéléstől, míg a másik fele nem tudja elképzelni az életet nélkülük. Az a tény, hogy Joaquin Oliver MI-változata örökre 17 éves marad – a tinédzser közösségi média jelenlétének digitális pillanatképében rekedve – végső soron a gyilkosának, nem a családjának a hibája. Manuel Oliver tudja, hogy ez az avatár nem valóban a fia, és nem is próbálja feltámasztani. Számára ez a kampányuk természetes kiterjesztésének tűnik, ami már így is életben tartja Joaquin emlékét.

Mégis, van valami nyugtalanító abban, hogy az MI hozzáférést kap egy közösségi média fiókhoz, lehetővé téve számára, hogy videókat posztoljon és követőket szerezzen. Mi van, ha hamis emlékeket kezd generálni, vagy olyan témákról spekulál, amelyekről az igazi Joaquinnek soha nem volt lehetősége véleményt nyilvánítani?

Jelenleg az MI-avatárok még mindig glitch-szerűek és mesterségesek, de ahogy a technológia fejlődik, egyre nehezebb lesz megkülönböztetni őket a valódi emberektől online. Nem tart sokáig, amíg a vállalatok – vagy akár a kormányzati szervek – MI-szóvivőket kezdenek használni a sajtókérdések kezelésére. Jim Acosta, egykori Fehér Ház-riporter, jobban tudhatta volna, hogy ne homályosítsa a határokat a már így is zavaros poszt-igazság világunkban azzal, hogy interjút készít valakivel, aki technikailag nem is létezik. A nagyobb kockázat azonban az, hogy a összeesküvés-elmélet hívők ezt "bizonyítékként" használják fel arra, hogy bármilyen kényelmetlen történet hamisítvány lehet – visszhangozva az olyan alaptalan állításokat, mint amit Alex Jones tett a Sandy Hook tragédiával kapcsolatban.

De ezek a kihívások nem csak az újságírókat érintik. Ahogy az MI fejlődik, mindannyian a saját digitális változataink mellett fogunk élni – nem csak olyan alap asszisztensek, mint az Alexa vagy a csevegőrobotok, hanem érzelmileg kifinomult társak. Annak fényében, hogy tíz brit felnőttből egy bevallja, hogy nincs közeli barátja, nem meglepő, hogy lesz piaca az MI-társaságnak, ahogy az emberek háziállatokhoz vagy a közösségi médiához fordulnak kapcsolatért.

A társadalom talán végül elfogadja, hogy a technológia betölti az űrt, ahol az emberi kapcsolatok hiányoznak. De óriási különbség van egy megnyugtató jelenlét létrehozása között a magányosak számára, és a halottak digitális feltámasztása között, egy-egy elvesztett szerettünk esetében. Ahogy a régi temetési vers mondja, van "ideje a születésnek és ideje a halálnak." Mi lesz, ha már nem tudjuk megmondani, melyik melyik?

---

Szólj, ha további finomításra van szükséged!