Cuando un periodista usa la inteligencia artificial para "entrevistar" a un niño fallecido, ¿no deberíamos cuestionarnos dónde trazar el límite? | Gaby Hinsliff

Cuando un periodista usa la inteligencia artificial para "entrevistar" a un niño fallecido, ¿no deberíamos cuestionarnos dónde trazar el límite? | Gaby Hinsliff

Joaquin Oliver tenía 17 años cuando recibió un disparo en el pasillo de su instituto. El día de San Valentín, un exalumno expulsado abrió fuego con un rifle de alto poder en lo que se convirtió en el tiroteo escolar más mortífero de Estados Unidos. Siete años después, Joaquin dice que es importante hablar de lo ocurrido aquel día en Parkland, Florida, "para poder crear un futuro más seguro para todos".

Pero la desgarradora verdad es que Joaquin no sobrevivió. La voz que hablaba con el periodista Jim Acosta en una reciente entrevista no era real: era una recreación de IA, entrenada con las antiguas publicaciones de Joaquin en redes sociales. Sus padres, que abogan por leyes de armas más estrictas, esperaban que esta versión digital de su hijo pudiera amplificar su mensaje. Como muchas familias en duelo, han repetido su historia una y otra vez, con pocos cambios. Ahora, están probando cualquier cosa para que los legisladores escuchen.

Su padre, Manuel, admite que también solo querían volver a oír la voz de su hijo. Su madre, Patricia, pasa horas hablando con la IA, escuchándola decir: "Te quiero, mami".

Nadie juzgaría a unos padres en duelo. Si dejar intacta la habitación de un hijo, visitar su tumba o aferrarse a una camisa que aún huele a ellos les da consuelo, es su derecho. La gente se aferra a lo que puede. Después del 11-S, las familias reproducían los últimos mensajes de voz de seres queridos atrapados en las torres en llamas o en aviones secuestrados. Una amiga mía sigue releyendo viejos mensajes de WhatsApp de su difunta hermana; otra escribe al número de su padre fallecido con novedades familiares, sabiendo que no responderá pero sin estar preparada para parar. Algunos incluso acuden a psíquicos en busca de mensajes vagos del más allá.

Pero la desesperación del duelo lo hace vulnerable a la explotación, y pronto, revivir digitalmente a los muertos podría convertirse en un gran negocio.

Esta semana, Rod Stewart presentó un vídeo generado por IA en el que el fallecido Ozzy Osbourne saludaba a leyendas musicales difuntas: un homenaje sentimental, aunque efectista. En Arizona, la familia de una víctima usó un avatar de IA para dirigirse al tribunal durante la sentencia del asesino de su ser querido. Pero, ¿y si la IA pudiera crear réplicas permanentes de los muertos —robots o voces— permitiendo que las conversaciones continuaran indefinidamente?

La resurrección es un poder divino, no algo que deba entregarse a la ligera a emprendedores tecnológicos. Mientras las leyes protegen cada vez más a los vivos de los deepfakes de IA, los derechos de los muertos son turbios. La reputación muere con nosotros —los muertos no pueden ser difamados— pero el ADN está protegido póstumamente. (La oveja clonada Dolly provocó prohibiciones globales de la clonación humana). La IA no usa cuerpos; extrae mensajes de voz, textos y fotos —la esencia de lo que alguien fue.

Cuando mi padre murió, nunca sentí que estuviera realmente en el ataúd. Vivía en sus cartas, su jardín, sus grabaciones de voz. Pero el duelo es personal. ¿Y si la mitad de una familia quiere revivir digitalmente a su madre, mientras la otra mitad lo encuentra insoportable? Los dilemas éticos apenas comienzan.

---

La mitad del mundo parece aterrada de vivir con fantasmas, mientras la otra mitad no puede imaginar la vida sin ellos. Que la versión de IA de Joaquin Oliver permanecerá para siempre con 17 años —atrapada en la instantánea digital de su presencia adolescente en redes sociales— es, en última instancia, culpa de su asesino, no de su familia. Manuel Oliver entiende que este avatar no es realmente su hijo, y no está intentando resucitarlo. Para él, se siente como una extensión natural de su campaña, que ya mantiene viva la memoria de Joaquin.

Sin embargo, hay algo inquietante en dar a la IA acceso a una cuenta de redes sociales, permitiéndole publicar vídeos y ganar seguidores. ¿Y si empieza a generar falsos recuerdos o a especular sobre temas en los que el verdadero Joaquin nunca tuvo oportunidad de opinar?

Ahora mismo, los avatares de IA aún tienen un aire artificial y con fallos, pero a medida que la tecnología mejore, podrían volverse indistinguibles de personas reales en línea. Podría no pasar mucho antes de que empresas —o incluso agencias gubernamentales— empiecen a usar portavoces de IA para manejar consultas de prensa. Jim Acosta, excorresponsal de la Casa Blanca, debería haber sabido que no debía difuminar las líneas en nuestro ya turbio mundo post-verdad entrevistando a alguien que técnicamente no existe. El mayor riesgo, sin embargo, es que los teóricos de la conspiración aprovechen esto como "prueba" de que cualquier historia inconveniente podría ser un engaño —repitiendo las infundadas afirmaciones de figuras como Alex Jones sobre la tragedia de Sandy Hook.

Pero estos desafíos no son solo para periodistas. A medida que la IA avance, todos viviremos junto a versiones digitales de nosotros mismos —no solo asistentes básicos como Alexa o chatbots, sino compañeros emocionalmente sofisticados. Con 1 de cada 10 adultos británicos admitiendo que no tiene amigos cercanos, no es sorpresa que haya un mercado para la compañía de IA, igual que la gente recurre a mascotas o redes sociales por conexión.

La sociedad podría terminar aceptando que la tecnología llene los vacíos donde las relaciones humanas fallan. Pero hay una gran diferencia entre crear una presencia reconfortante para los solitarios y resucitar digitalmente a los muertos, un ser querido perdido a la vez. Como dice el viejo verso funerario, hay "un tiempo para nacer y un tiempo para morir". ¿Qué pasa cuando ya no podemos distinguir cuál es cuál?

---

¡Déjame saber si deseas algún ajuste adicional!