Wenn ein Journalist KI nutzt, um ein verstorbenes Kind zu "interviewen", sollten wir uns dann nicht fragen, wo die Grenze gezogen werden sollte? | Gaby Hinsliff

Wenn ein Journalist KI nutzt, um ein verstorbenes Kind zu "interviewen", sollten wir uns dann nicht fragen, wo die Grenze gezogen werden sollte? | Gaby Hinsliff

Joaquin Oliver war 17 Jahre alt, als er in seinem Schulflur erschossen wurde. Am Valentinstag eröffnete ein ehemaliger, verwiesener Schüler das Feuer mit einem Hochleistungsgewehr – es wurde der tödlichste Schulmassaker in der amerikanischen Geschichte. Sieben Jahre später sagt Joaquin, es sei wichtig, über das zu sprechen, was an jenem Tag in Parkland, Florida, geschah, „damit wir eine sicherere Zukunft für alle schaffen können.“

Doch die herzzerreißende Wahrheit ist: Joaquin hat nicht überlebt. Die Stimme, die kürzlich im Interview mit dem Journalisten Jim Acosta sprach, war nicht echt – es war eine KI-Rekonstruktion, trainiert mit Joaquins alten Social-Media-Posts. Seine Eltern, die sich für strengere Waffengesetze einsetzen, hofften, diese digitale Version ihres Sohnes könne ihre Botschaft verstärken. Wie viele trauernde Familien haben sie ihre Geschichte immer wieder erzählt – mit wenig Veränderung. Jetzt versuchen sie alles, um Politiker zum Zuhören zu bewegen.

Sein Vater Manuel gibt zu, sie wollten auch einfach die Stimme ihres Sohnes wieder hören. Seine Mutter Patricia verbringt Stunden damit, mit der KI zu sprechen und sich „Ich liebe dich, Mama“ sagen zu lassen.

Niemand würde trauernde Eltern verurteilen. Ob sie das Zimmer ihres Kindes unberührt lassen, sein Grab besuchen oder an einem Hemd festhalten, das noch nach ihm riecht – wenn es Trost spendet, ist das ihr Recht. Menschen halten sich an das, was sie können. Nach dem 11. September spielten Angehörige letzte Voicemails von in brennenden Türmen oder entführten Flugzeugen eingeschlossenen Lieben ab. Eine Freundin liest immer wieder alte WhatsApp-Nachrichten ihrer verstorbenen Schwester; eine andere schreibt ihrem toten Vater Familienneuigkeiten, obwohl sie weiß, dass er nicht antworten wird. Manche wenden sich sogar an Hellseher für vage Botschaften aus dem Jenseits.

Doch die Verzweiflung der Trauer macht sie anfällig für Ausbeutung – und bald könnte die digitale Wiederbelebung Verstorbener ein großes Geschäft werden.

Diese Woche spielte Rod Stewart ein KI-generiertes Video mit dem verstorbenen Ozzy Osbourne, der verstorbene Musiklegenden begrüßt – eine rührselige, wenn auch kitschige Hommage. In Arizona nutzte eine Opferfamilie einen KI-Avatar, um vor Gericht bei der Verurteilung des Mörders ihres Angehörigen zu sprechen. Doch was, wenn KI dauerhafte Repliken der Toten erschaffen könnte – Roboter oder Stimmen –, die Gespräche unendlich fortsetzen lassen?

Wiederauferstehung ist eine gottgleiche Macht, keine, die man leichtfertig Tech-Unternehmern überlassen sollte. Während Gesetze Lebende zunehmend vor KI-Deepfakes schützen, sind die Rechte der Toten unklar. Der Ruf stirbt mit uns – Tote können nicht verleumdet werden – doch DNA ist posthum geschützt. (Das Klonschaf Dolly löste weltweite Verbote des menschlichen Klonens aus.) KI nutzt keine Körper; sie durchforstet Voicemails, Texte und Fotos – das Wesentliche eines Menschen.

Als mein Vater starb, fühlte ich nie, dass er wirklich im Sarg lag. Er lebte weiter in seinen Briefen, seinem Garten, seinen Tonaufnahmen. Doch Trauer ist persönlich. Was, wenn die Hälfte einer Familie ihre Mutter digital wiederbeleben will, während es für die andere unerträglich ist? Die ethischen Dilemmata fangen gerade erst an.

---

Die Hälfte der Welt scheint sich davor zu fürchten, mit Geistern zu leben, während die andere sich ein Leben ohne sie nicht vorstellen kann. Dass Joaquins KI-Version für immer 17 bleiben wird – gefangen im digitalen Schnappschuss seines Teenager-Social-Media-Profils –, ist letztlich das Verbrechen seines Mörders, nicht seiner Familie. Manuel Oliver weiß, dass dieser Avatar nicht wirklich sein Sohn ist, und er versucht nicht, ihn wiederzubeleben. Für ihn fühlt es sich wie eine natürliche Fortsetzung ihrer Kampagne an, die Joaquins Gedächtnis ohnehin lebendig hält.

Doch es gibt etwas Beunruhigendes daran, der KI Zugang zu einem Social-Media-Account zu gewähren, damit sie Videos posten und Follower sammeln kann. Was, wenn sie falsche Erinnerungen generiert oder über Themen spekuliert, zu denen der echte Joaquin nie Stellung nehmen konnte?

Noch wirken KI-Avatare holprig und künstlich, doch mit fortschreitender Technik könnten sie bald nicht mehr von echten Menschen online zu unterscheiden sein. Es könnte nicht lange dauern, bis Unternehmen – oder sogar Behörden – KI-Sprecher für Presseanfragen einsetzen. Jim Acosta, ein ehemaliger Weiße-Haus-Korrespondent, hätte es besser wissen müssen, als in unserer ohnehin schon postfaktischen Welt die Grenzen zu verwischen, indem er jemanden interviewte, der technisch gesehen nicht existiert. Die größere Gefahr ist jedoch, dass Verschwörungstheoretiker dies als „Beweis“ nutzen, dass jede unbequeme Geschichte ein Hoax sein könnte – ähnlich den haltlosen Behauptungen von Figuren wie Alex Jones über das Sandy-Hook-Massaker.

Doch diese Herausforderungen betreffen nicht nur Journalisten. Mit fortschreitender KI werden wir alle neben digitalen Versionen von uns selbst leben – nicht nur einfachen Assistenten wie Alexa oder Chatbots, sondern emotional ausgeklügelten Begleitern. Da jeder zehnte Brite zugibt, keine engen Freunde zu haben, überrascht es nicht, dass es einen Markt für KI-Kameradschaft geben wird, genauso wie Menschen zu Haustieren oder Social Media greifen, um Verbindung zu finden.

Die Gesellschaft könnte irgendwann akzeptieren, dass Technologie die Lücken füllt, wo menschliche Beziehungen versagen. Doch es gibt einen gewaltigen Unterschied zwischen einem tröstenden Begleiter für Einsame und der digitalen Wiederbelebung der Toten – einen verlorenen Lieben nach dem anderen. Wie das alte Begräbnisgedicht sagt: Es gibt „eine Zeit zu geboren werden und eine Zeit zu sterben“. Was passiert, wenn wir nicht mehr unterscheiden können, was was ist?

---

Lass mich wissen, falls du weitere Anpassungen wünschst!