Mi foto fue utilizada en imágenes de abuso infantil. Ahora, la IA está obligando a otros a revivir mi pesadilla.

Mi foto fue utilizada en imágenes de abuso infantil. Ahora, la IA está obligando a otros a revivir mi pesadilla.

Cuando era niña, nada daba más miedo que un extraño. A finales de los años ochenta y principios de los noventa, nuestros padres, los programas especiales de televisión y los profesores nos advertían que los extraños querían hacernos daño. El "peligro de los extraños" estaba en todas partes. Era una lección bienintencionada, pero el riesgo estaba exagerado: la mayoría de los abusos a menores los cometen personas que el niño conoce. El abuso por parte de extraños es mucho más raro.

Más raro, pero no imposible. Lo sé porque fui explotada sexualmente por extraños.

Desde los cinco hasta los trece años, fui actriz infantil. Aunque últimamente hemos oído muchas historias de terror sobre abusos detrás de las cámaras, yo siempre me sentí segura en el set. Los sets de cine eran espacios regulados donde la gente se centraba en el trabajo. Tenía padres que me apoyaban y estaba rodeada de directores, actores y profesores que entendían y cuidaban a los niños.

La única forma en que el mundo del espectáculo me puso en peligro fue al exponerme al ojo público. Cualquier crueldad y explotación que enfrenté vino del público.

"Hollywood te tira a la piscina", suelo decir, "pero es el público el que te sostiene la cabeza bajo el agua".

Incluso antes de empezar la secundaria, mi imagen había sido utilizada en material de abuso sexual infantil. Aparecí en sitios web fetichistas y fui fotomontada en pornografía. Hombres adultos me enviaban cartas espeluznantes. No era una niña hermosa —mi fase torpe duró desde los 10 hasta los 25 años— y actuaba casi exclusivamente en películas familiares. Pero era una figura pública, así que era accesible. Eso es lo que buscan los depredadores: acceso. Y nada me hizo más accesible que internet.

No importaba que esas imágenes "no fueran yo" o que los sitios fueran "técnicamente" legales. Fue una experiencia dolorosa y violadora, una pesadilla viviente que esperaba que ningún otro niño tuviera que sufrir. De adulta, me preocupaba por los niños que vinieron después de mí. ¿Estaban pasando cosas similares a las estrellas de Disney, al elenco de *Stranger Things* o a los preadolescentes que hacen bailes en TikTok y aparecen en vlogs familiares? No estaba segura de querer saberlo.

Cuando la IA generativa ganó impulso hace unos años, temí lo peor. Había oído hablar de los "deepfakes" y sabía que la tecnología se estaba volviendo exponencialmente más realista.

Entonces sucedió, o al menos, el mundo se dio cuenta. La IA generativa ya se ha utilizado muchas veces para crear imágenes sexualizadas de mujeres adultas sin su consentimiento. Les pasó a amigas mías. Pero recientemente, se informó que la herramienta de IA Grok de X se había utilizado abiertamente para generar imágenes desnudas de una actriz menor de edad. Semanas antes, una niña de 13 años fue expulsada de la escuela por golpear a un compañero que supuestamente hizo pornografía deepfake de ella, más o menos la misma edad que yo tenía cuando la gente creó imágenes sexualizadas falsas de mí.

En julio de 2024, la Internet Watch Foundation encontró más de 3.500 imágenes de abuso sexual infantil generadas por IA en un foro de la dark web. ¿Cuántos miles más se han creado desde entonces?

La IA generativa ha reinventado el peligro de los extraños. Y esta vez, el miedo está justificado. Ahora es infinitamente más fácil que cualquier niño cuya cara esté en línea sea explotado sexualmente. Millones de niños podrían verse obligados a vivir mi pesadilla.

Para detener esta crisis de los deepfakes, necesitamos examinar cómo se entrena la IA.

La IA generativa "aprende" a través de un proceso repetido de "mirar, hacer, comparar, actualizar, repetir", dice Patrick LaVictoire, matemático y ex investigador de seguridad de IA. Crea modelos basados en información memorizada, pero como no puede memorizarlo todo, busca patrones y basa sus respuestas en ellos. "Una conexión que es..." LaVictoire explica que los comportamientos útiles de la IA se refuerzan, mientras que los inútiles o dañinos se eliminan. Lo que la IA generativa puede producir depende completamente de sus datos de entrenamiento. Un estudio de Stanford de 2023 reveló que un conjunto de datos de entrenamiento popular contenía más de 1.000 instancias de material de abuso sexual infantil (CSAM). Aunque esos enlaces han sido eliminados desde entonces, los investigadores advierten de otro peligro: la IA podría generar CSAM combinando imágenes inocentes de niños con pornografía adulta si ambos tipos están presentes en los datos.

Empresas como Google y OpenAI dicen que tienen salvaguardas, como curar cuidadosamente los datos de entrenamiento. Sin embargo, es importante señalar que las imágenes de muchas actrices adultas y trabajadoras sexuales han sido extraídas para IA sin su consentimiento.

LaVictoire señala que la IA generativa en sí misma no puede distinguir entre indicaciones inofensivas, como "haz una imagen de un samurái jedi", y dañinas, como "desnuda a esta celebridad". Para abordar esto, otra capa de IA, similar a un filtro de spam, puede bloquear tales consultas. xAI, la empresa detrás de Grok, parece haber sido laxa con este filtro.

La situación podría empeorar. Meta y otros han propuesto hacer que los futuros modelos de IA sean de código abierto, lo que significa que cualquiera podría acceder, descargar y modificar el código. Aunque el software de código abierto suele fomentar la creatividad y la colaboración, esta libertad podría ser desastrosa para la seguridad infantil. Una plataforma de IA descargada y de código abierto podría ser ajustada con imágenes explícitas o ilegales para crear CSAM ilimitado o "pornografía de venganza", sin salvaguardas implementadas.

Meta parece haberse retractado de hacer que sus nuevas plataformas de IA sean completamente de código abierto. Quizás Mark Zuckerberg consideró el posible legado, alejándose de un camino que podría asemejarlo más a un "Oppenheimer del CSAM" que a un emperador romano.

Algunos países están tomando medidas. China exige que el contenido generado por IA esté etiquetado. Dinamarca está redactando legislación para dar a las personas derechos de autor sobre su imagen y voz, con multas para las plataformas que no cumplan. En Europa y el Reino Unido, las protecciones también pueden venir de regulaciones como el GDPR.

La perspectiva en Estados Unidos parece más sombría. Las reclamaciones de derechos de autor a menudo fracasan porque los acuerdos de usuario suelen otorgar a las plataformas amplios derechos sobre el contenido subido. Con órdenes ejecutivas que se oponen a la regulación de la IA y empresas como xAI asociándose con el ejército, el gobierno estadounidense parece priorizar las ganancias de la IA sobre la seguridad pública.

El litigante de Nueva York Akiva Cohen señala leyes recientes que criminalizan algunas manipulaciones digitales, pero dice que a menudo son excesivamente restrictivas. Por ejemplo, crear un deepfake que muestre a alguien desnudo o en un acto sexual podría ser criminal, pero usar IA para poner a una mujer, o incluso a una menor de edad, en bikini probablemente no lo sería.

"Mucho de esto se mantiene muy conscientemente justo en el lado 'horrible, pero legal' de la línea", dice Cohen. Aunque tales actos pueden no ser delitos penales contra el estado, Cohen argumenta que podrían ser responsabilidades civiles, violando los derechos de una persona y requiriendo restitución. Sugiere que esto cae bajo agravios como "falsa luz" o "invasión de privacidad". Una forma de agravio implica hacer afirmaciones ofensivas sobre una persona, retratándola bajo una falsa luz, esencialmente mostrando a alguien haciendo algo que nunca hizo realmente.

"La forma de disuadir verdaderamente este tipo de comportamiento es responsabilizando a las empresas que lo permiten", dice Cohen.

Existe un precedente legal para esto: la Ley Raise de Nueva York y el Proyecto de Ley 53 del Senado de California establecen que las empresas de IA pueden ser responsables por los daños que causen más allá de cierto punto. Mientras tanto, X ha anunciado que bloqueará a su herramienta de IA Grok para generar imágenes sexualizadas de personas reales en su plataforma, aunque este cambio de política no parece aplicarse a la aplicación independiente Grok.

Josh Saviano, ex abogado en Nueva York y ex actor infantil, cree que se necesita una acción más inmediata junto con la legislación.

"Los esfuerzos de lobby y los tribunales abordarán esto en última instancia", dice Saviano. "Pero hasta entonces, hay dos opciones: abstenerse por completo eliminando toda tu huella digital de internet, o encontrar una solución tecnológica".

Proteger a los jóvenes es especialmente importante para Saviano, que conoce a personas afectadas por deepfakes y, por su propia experiencia como actor infantil, entiende lo que es perder el control de tu propia historia. Él y su equipo están desarrollando una herramienta para detectar y alertar a las personas cuando sus imágenes o trabajo creativo están siendo extraídos en línea. Su lema, dice, es: "Proteger a los bebés".

Como sea que suceda, creo que defenderse de esta amenaza requerirá un esfuerzo público significativo.

Mientras algunos se encariñan con sus chatbots de IA, la mayoría de la gente todavía ve a las empresas tecnológicas como poco más que servicios públicos. Podríamos preferir una aplicación sobre otra por razones personales o políticas, pero la lealtad a la marca fuerte es rara. Las empresas tecnológicas, especialmente las plataformas de redes sociales como Meta y X, deberían recordar que son un medio para un fin. Si alguien como yo, que estuvo en Twitter todos los días durante más de una década, puede dejarlo, cualquiera puede.

Pero los boicots por sí solos no son suficientes. Debemos exigir que las empresas que permiten la creación de material de abuso sexual infantil sean responsabilizadas. Necesitamos impulsar legislación y salvaguardas tecnológicas. También tenemos que examinar nuestro propio comportamiento: nadie quiere pensar que compartir fotos de su hijo podría llevar a que esas imágenes se usen en material abusivo. Sin embargo, es un riesgo real, uno contra el que los padres deben proteger a los niños pequeños y educar a los mayores.

Si nuestro enfoque pasado en el "peligro de los extraños" nos enseñó algo, es que la mayoría de la gente quiere prevenir el peligro y el acoso a los niños. Ahora es el momento de demostrarlo.

Mara Wilson es escritora y actriz radicada en Los Ángeles.

**Preguntas Frecuentes**

Por supuesto. Aquí hay una lista de preguntas frecuentes sobre el problema profundamente preocupante del mal uso de fotos personales en contenido abusivo y la nueva amenaza que plantean las imágenes generadas por IA.

**Comprendiendo el Problema Central**

**P: ¿Qué significa cuando alguien dice que su foto fue usada en material de abuso infantil?**
R: Significa que una foto personal no sexual de ellos fue tomada sin consentimiento y alterada digitalmente o colocada en imágenes o videos sexualmente abusivos. Esta es una forma grave de abuso sexual basado en imágenes.

**P: ¿Cómo está empeorando la IA este problema?**
R: Las herramientas de IA ahora pueden generar imágenes y videos falsos altamente realistas. Los perpetradores pueden usar una sola foto inocente para crear nuevo contenido abusivo fabricado, haciendo que la victimización sea interminable y que la foto original sea imposible de eliminar completamente de la circulación.

**P: He escuchado el término "deepfake", ¿es eso lo que es esto?**
R: Sí, en este contexto. Un deepfake usa IA para superponer la cara de una persona en el cuerpo de otra en un video o imagen. Cuando esto se hace para crear contenido abusivo, es una forma de falsificación digital y un delito grave.

**Para Víctimas y Quienes Temen Convertirse en Víctimas**

**P: ¿Qué debo hacer si descubro que mi foto ha sido mal usada de esta manera?**
R: 1. No borres la evidencia. Toma capturas de pantalla con las URL. 2. Reporta inmediatamente a la plataforma donde lo encontraste. 3. Presenta un reporte ante las fuerzas del orden. 4. Contacta a una organización de apoyo como la Cyber Civil Rights Initiative o RAINN para obtener ayuda.

**P: ¿Puedo hacer que estos deepfakes generados por IA sean eliminados de internet?**
R: Es desafiante pero posible. Debes reportar cada instancia a la plataforma de alojamiento. Muchas plataformas importantes tienen políticas contra las imágenes íntimas no consensuadas. También hay servicios como Take It Down que pueden ayudar a prevenir que se compartan imágenes conocidas.

**P: ¿Cómo puedo proteger mis fotos de ser mal usadas por la IA?**
R: Aunque ningún método es infalible, puedes ser muy selectivo sobre lo que compartes públicamente en línea, usar configuraciones de privacidad estrictas, evitar publicar fotos de alta resolución y considerar el uso de marcas de agua digitales. Ten cuidado con las aplicaciones que usan...