Gdy dziennikarz używa sztucznej inteligencji do „przeprowadzenia wywiadu” z zmarłym dzieckiem, czy nie powinniśmy zastanowić się, gdzie postawić granicę? | Gaby Hinsliff

Gdy dziennikarz używa sztucznej inteligencji do „przeprowadzenia wywiadu” z zmarłym dzieckiem, czy nie powinniśmy zastanowić się, gdzie postawić granicę? | Gaby Hinsliff

Joaquin Oliver miał 17 lat, gdy został postrzelony w korytarzu swojej szkoły. W Walentynki wydalony wcześniej uczeń otworzył ogień z potężnej broni palnej, co przerodziło się w najkrwawszą strzelaninę w amerykańskiej szkole. Siedem lat później Joaquin mówi, że ważne jest, by rozmawiać o tym, co wydarzyło się tamtego dnia w Parkland na Florydzie, „abyśmy mogli stworzyć bezpieczniejszą przyszłość dla wszystkich”.

Lecz bolesna prawda jest taka, że Joaquin nie przeżył. Głos, który w niedawnym wywiadzie przemawiał do dziennikarza Jima Acosty, nie był prawdziwy – to była rekonstrukcja AI, stworzona na podstawie starych postów chłopaka w mediach społecznościowych. Jego rodzice, którzy walczą o zaostrzenie prawa dotyczącego broni, mieli nadzieję, że ta cyfrowa wersja ich syna wzmocni ich przekaz. Podobnie jak wiele innych pogrążonych w żałobie rodzin, wielokrotnie dzielili się swoją historią, nie widząc większych zmian. Teraz próbują wszystkiego, by zmusić polityków do słuchania.

Jego ojciec, Manuel, przyznaje, że chcieli też po prostu znów usłyszeć głos syna. Jego matka, Patricia, spędza godziny na rozmowach z AI, słuchając, jak mówi: „Kocham cię, mamo”.

Nikt nie osądziłby rodziców pogrążonych w żałobie. Jeśli zachowanie pokoju dziecka w nienaruszonym stanie, odwiedzanie jego grobu czy trzymanie koszulki, która wciąż pachnie jak ono, przynosi im ulgę – to ich prawo. Ludzie trzymają się tego, co mogą. Po 11 września rodzice odtwarzali ostatnie wiadomości głosowe od bliskich uwięzionych w płonących wieżach lub porwanych samolotach. Moja przyjaciółka wciąż odczytuje stare wiadomości na WhatsAppie od zmarłej siostry; inna wysyła SMS-y na numer swojego zmarłego ojca z rodzinnymi nowinami, wiedząc, że nie odpowie, ale nie jest gotowa przestać. Niektórzy nawet zwracają się do mediów, by otrzymać mgliste przekazy „z tamtego świata”.

Ale desperacja żałoby sprawia, że staje się ona podatna na wykorzystanie – i wkrótce cyfrowe przywracanie zmarłych może stać się dużym biznesem.

W tym tygodniu Rod Stewart wyemitował wygenerowane przez AI wideo, w którym nieżyjący Ozzy Osbourne wita innych zmarłych legend muzyki – to sentymentalny, choć nieco kiczowaty hołd. W Arizonie rodzina ofiary wykorzystała awatar AI, by przemówić w sądzie podczas ogłaszania wyroku dla zabójcy ich bliskiego. Ale co, jeśli AI będzie mogło tworzyć trwałe repliki zmarłych – roboty lub głosy – pozwalające na nieskończone kontynuowanie rozmów?

Wskrzeszanie to boska moc, nie coś, co można lekko powierzyć technologicznym przedsiębiorcom. Choć prawo coraz lepiej chroni żyjących przed deepfake’ami AI, prawa zmarłych pozostają niejasne. Reputacja umiera razem z nami – zmarłych nie można zniesławić – ale DNA jest chronione pośmiertnie. (Owca Dolly, pierwszy sklonowany ssak, doprowadziła do globalnych zakazów klonowania ludzi.) AI nie wykorzystuje ciał; przeszukuje nagrania głosowe, wiadomości i zdjęcia – esencję tego, kim ktoś był.

Gdy mój ojciec zmarł, nigdy nie czułam, że naprawdę leży w trumnie. Żył dalej w swoich listach, ogrodzie, nagraniach głosu. Ale żałoba jest osobista. Co, jeśli połowa rodziny chce cyfrowo wskrzesić matkę, a druga połowa uważa to za nie do zniesienia? Dylematy etyczne dopiero się zaczynają.

Oto bardziej naturalna i płynna wersja tekstu, zachowująca jego pierwotne znaczenie:

---

Połowa świata zdaje się bać życia z duchami, podczas gdy druga połowa nie wyobraża sobie życia bez nich. Fakt, że wersja AI Joaquina Olivera na zawsze pozostanie 17-letnia – uwięziona w cyfrowym migawkowym obrazie jego nastoletniej obecności w mediach społecznościowych – to ostatecznie wina jego zabójcy, nie rodziny. Manuel Oliver rozumie, że ten awatar nie jest naprawdę jego synem i nie próbuje go wskrzesić. Dla niego to naturalne przedłużenie ich kampanii, która i tak już podtrzymuje pamięć o Joaquinie.

Jednak coś niepokojącego jest w dawaniu AI dostępu do konta w mediach społecznościowych, pozwalaniu mu publikować filmy i zdobywać obserwujących. A jeśli zacznie generować fałszywe wspomnienia lub spekulować na tematy, na które prawdziwy Joaquin nigdy nie miał szansy się wypowiedzieć?

Obecnie awatary AI wciąż mają nienaturalny, „glitchowy” charakter, ale wraz z rozwojem technologii mogą stać się nieodróżnialne od prawdziwych ludzi w sieci. Może nie minie dużo czasu, zanim firmy – a nawet agencje rządowe – zaczną wykorzystywać AI jako rzeczników prasowych. Jim Acosta, były korespondent Białego Domu, powinien był wiedzieć lepiej i nie rozmazywać granic w naszej i tak już mętnej erze postprawdy, przeprowadzając wywiad z kimś, kto technicznie nie istnieje. Większym ryzykiem jest jednak to, że teoretycy spiskowi wykorzystają to jako „dowód”, że każda niewygodna historia może być oszustwem – powtarzając bezpodstawne twierdzenia postaci takich jak Alex Jones o tragedii w Sandy Hook.

Ale te wyzwania nie dotyczą tylko dziennikarzy. W miarę rozwoju AI wszyscy będziemy żyć obok cyfrowych wersji samych siebie – nie tylko podstawowych asystentów jak Alexa czy chatboty, ale emocjonalnie zaawansowanych towarzyszy. Biorąc pod uwagę, że co dziesiąty dorosły Brytyjczyk przyznaje, że nie ma bliskich przyjaciół, nic dziwnego, że powstanie rynek dla AI-towarzyszy, tak jak ludzie zwracają się ku zwierzętom domowym czy mediom społecznościowym w poszukiwaniu więzi.

Społeczeństwo może w końcu zaakceptować technologię wypełniającą luki tam, gdzie zawiodą relacje międzyludzkie. Ale istnieje ogromna różnica między tworzeniem pocieszającej obecności dla samotnych a cyfrowym wskrzeszaniem zmarłych, jednej utraconej osoby na raz. Jak mówi stare przysłowie pogrzebowe, jest „czas rodzić się i czas umierać”. Co się stanie, gdy przestaniemy rozróżniać, który jest który?

---

Daj znać, jeśli chcesz dodatkowych poprawek!