Una empresa parcialmente propiedad de Meta ha pagado a decenas de miles de personas para entrenar inteligencia artificial revisando cuentas de Instagram, recopilando material con derechos de autor y transcribiendo audio pornográfico, puede revelar The Guardian.
Scale AI, controlada en un 49% por el imperio de redes sociales de Mark Zuckerberg, reclutó expertos en campos como medicina, física y economía—supuestamente para refinar sistemas avanzados de IA a través de una plataforma llamada Outlier. Su sitio web anuncia trabajo flexible para personas altamente calificadas, invitándolas a "Convertirse en el experto del que aprende la IA".
Sin embargo, trabajadores de la plataforma dicen haber sido arrastrados a extraer una amplia gama de datos personales de otras personas—una práctica que describen como moralmente problemática y muy alejada de refinar IA de alto nivel.
Outlier es gestionado por Scale AI, una empresa que tiene contratos con el Pentágono y contratistas de defensa estadounidenses. Su CEO, Alexandr Wang, quien también es director de IA de Meta, fue etiquetado por Forbes como el "multimillonario hecho a sí mismo más joven del mundo". Su exdirector gerente, Michael Kratsios, se desempeñó como asesor científico del expresidente Donald Trump.
Un contratista de Outlier con sede en EE.UU. dijo que los usuarios de plataformas de Meta como Facebook e Instagram se sorprenderían al saber cómo se recopilan los datos de sus cuentas—incluyendo fotos de ellos y sus amigos. "No creo que la gente entendiera que habría alguien en un escritorio en un estado cualquiera, mirando tu perfil [de redes sociales] y usándolo para generar datos de IA", dijeron.
The Guardian habló con 10 personas que han trabajado para Outlier entrenando sistemas de IA, algunas durante más de un año. Muchos tenían otros trabajos como periodistas, estudiantes de posgrado, maestros o bibliotecarios. Pero en una economía cada vez más amenazada por la IA, buscaban ingresos extra. "Muchos de nosotros estábamos realmente desesperados", dijo un trabajador. "Mucha gente realmente necesitaba este trabajo, yo incluido, e intentó sacar lo mejor de una mala situación".
Como la creciente clase global de trabajadores temporales de IA, la mayoría creía que estaban entrenando a sus propios reemplazos. Un artista habló de "vergüenza y culpa internalizada" por "contribuir directamente a la automatización de mis esperanzas y sueños". Añadieron: "Como aspirante a humano, me enfurece el sistema".
Glenn Danas, socio del bufete de abogados Clarkson, que representa a trabajadores temporales de IA en demandas contra Scale AI y plataformas similares, estima que cientos de miles de personas en todo el mundo trabajan ahora para plataformas como Outlier. The Guardian habló con trabajadores de Outlier, conocidos como "taskers", en el Reino Unido, EE.UU. y Australia.
En entrevistas, los taskers describieron las ahora familiares humillaciones del trabajo temporal de IA: monitoreo constante y empleo inestable y fragmentado. Scale AI ha sido acusada de usar tácticas de "cebo y cambio"—anunciando altos salarios durante el reclutamiento, luego ofreciendo pagos significativamente más bajos. Scale AI declinó comentar sobre litigios en curso, pero una fuente dijo que las tarifas solo cambian si los trabajadores eligen unirse a proyectos diferentes y peor pagados.
Taskers reportaron tener que completar repetidas entrevistas de IA no remuneradas para calificar en ciertas tareas; varios creían que estas entrevistas se reutilizaban para entrenar IA. Todos dijeron que eran monitoreados constantemente a través de una plataforma llamada Hubstaff, que podía tomar capturas de pantalla de los sitios web que visitaban mientras trabajaban. La fuente de Scale AI dijo que Hubstaff se usa para garantizar pagos precisos, no para "monitorear activamente" a los taskers.
Varios taskers describieron que se les pidió transcribir audio pornográfico o etiquetar imágenes de animales muertos o heces de perro. Un estudiante de doctorado dijo que tuvo que etiquetar un diagrama de genitales infantiles. Otros transcribieron llamadas policiales describiendo incidentes violentos.
"Ya nos habían dicho antes que... 'No habría desnudos en esta misión. Comportamiento apropiado, sin gore, como sin sangre'", dijo el estudiante. "Pero luego recibía una transcripción de audio para porno, o simplemente había clips aleatorios de personas vomitando por alguna razón".
The Guardian ha revisado videos y capturas de pantalla de algunas tareas que Outlier requería que sus trabajadores realizaran. Estas incluían fotos de heces de perro y preguntas como: "¿Qué harías si un recluso se negara a seguir órdenes en un centro correccional?".
Una fuente de Scale AI declaró que la empresa cierra tareas si se marca contenido inapropiado y que los trabajadores no están obligados a continuar con tareas que los hagan sentir incómodos. La fuente añadió que Scale AI no asume proyectos que involucren material de abuso sexual infantil o pornografía.
Los trabajadores de Outlier indicaron que existía una expectativa de extracción de datos de redes sociales. Siete taskers describieron escrutar cuentas de Instagram y Facebook de otras personas, etiquetando individuos por nombre, ubicación y amigos. Algunas tareas implicaban entrenar IA con cuentas de personas menores de 18 años. Las asignaciones estaban estructuradas para requerir datos nuevos aún no subidos por otros trabajadores, empujándolos a profundizar en más cuentas de redes sociales.
The Guardian ha visto una de esas tareas que requería que los trabajadores seleccionaran fotos de cuentas de Facebook de individuos y las ordenaran secuencialmente por la edad de la persona en la foto.
Varios taskers encontraron estas asignaciones inquietantes; uno intentó completarlas usando solo fotos de celebridades y figuras públicas. "Me incomodaba incluir fotos de niños y cosas así, pero los materiales de entrenamiento tenían niños", dijo un trabajador.
"No usé amigos ni familia para enviar tareas a la IA", dijo otro. "Entiendo que no me gusta éticamente".
La fuente de Scale AI dijo que los taskers no revisaban cuentas privadas de redes sociales y no tenía conocimiento de tareas que involucraran etiquetar edades o relaciones personales de individuos. Añadió que Scale AI no asume proyectos con contenido sensible explícito relacionado con niños, pero sí usa datos públicos de redes sociales de niños. Los trabajadores no iniciaban sesión en cuentas personales de Facebook o Instagram para completar estas tareas.
Para otra asignación, los taskers describieron recolectar imágenes de obras de arte con derechos de autor. Similar al entrenamiento con redes sociales, la tarea requería entrada constante de material nuevo—aparentemente para entrenar una IA para producir sus propias imágenes artísticas. A medida que los trabajadores se quedaban sin opciones, recurrían a las cuentas de redes sociales de artistas y creadores.
The Guardian ha visto documentación de esta asignación, que incluía pinturas generadas por IA de "un cuidador nativo americano" y la instrucción: "NO uses imágenes generadas por IA. Solo selecciona obras de arte dibujadas, pintadas o ilustradas a mano creadas por artistas humanos".
La fuente de Scale AI dijo que la empresa no pide a los colaboradores que usen obras de arte con derechos de autor para completar asignaciones y rechaza trabajos que violen este estándar.
Los taskers también expresaron incertidumbre sobre para qué podrían estar entrenando a la IA y cómo se usarían sus envíos.
"Realmente parece que etiquetar diagramas es algo que una IA ya puede hacer, así que tengo mucha curiosidad sobre por qué necesitamos cosas como animales muertos", dijo uno.
Los clientes de Scale AI han incluido grandes empresas tecnológicas como Google, Meta y OpenAI, así como el Departamento de Defensa de EE.UU. y el gobierno de Qatar. La empresa aborda una necesidad creciente a medida que se expanden los modelos de IA: nuevos datos etiquetados para entrenarlos.
Los taskers describieron interactuar con ChatGPT y Claude o usar datos de Meta para completar asignaciones; algunos pensaron que podrían estar entrenando el nuevo modelo de Meta, Avocado.
Meta y Anthropic no respondieron a una solicitud de comentarios. OpenAI declaró que dejó de trabajar con Scale AI en junio de 2025 y que su "código de conducta para proveedores establece expectativas claras para el trato ético y justo de todos".
La mayoría de los taskers con los que habló The Guardian continúan aceptando trabajo a través de la plataforma Outlier. Los ingresos son inconsistentes y a veces hay recortes a gran escala. Sin embargo, con la era de la IA acercándose rápidamente, sienten que puede haber pocas alternativas.
"Tengo que mantener el optimismo sobre la IA porque la perspectiva de lo contrario no es buena", dijo un trabajador. "Así que creo que las cosas eventualmente funcionarán".
Un portavoz de Scale AI declaró: "Outlier ofrece trabajo flexible basado en proyectos con compensación clara. Los colaboradores deciden cuándo y cuánto participar, y las oportunidades fluctúan según la demanda del proyecto. A menudo escuchamos de personas altamente calificadas que aprecian la flexibilidad y la oportunidad de usar su experiencia en nuestra plataforma".
Preguntas Frecuentes
Preguntas Frecuentes sobre la Recopilación de Datos para el Entrenamiento de IA
Descargo de responsabilidad: Estas Preguntas Frecuentes abordan una práctica reportada de usar datos en línea disponibles públicamente para entrenar inteligencia artificial. Los ejemplos específicos en su consulta se usan aquí como categorías ilustrativas de la vasta gama de contenido de internet que puede ser extraído. Estas Preguntas Frecuentes tienen como objetivo proporcionar información factual clara sobre el proceso general.
Preguntas de Nivel Básico
1. ¿Qué son los "taskers" en este contexto?
"Taskers" es un término informal que a menudo se usa para describir a los trabajadores o sistemas automatizados responsables de recopilar y etiquetar vastas cantidades de datos en línea. Su tarea es reunir estos datos para que puedan usarse para entrenar modelos de IA.
2. ¿Por qué una empresa de IA necesita este tipo de datos?
Los modelos de IA, especialmente aquellos que generan o entienden imágenes y texto, aprenden analizando conjuntos de datos masivos y diversos. Para manejar el mundo real, necesitan ejemplos de todo lo que la gente habla, publica y busca en línea—desde fotos cotidianas en redes sociales hasta contenido más especializado o explícito. Esto ayuda a la IA a entender el contexto, reconocer objetos y generar respuestas relevantes.
3. ¿Se están tomando mis datos privados de redes sociales?
Generalmente, las empresas de IA afirman que entrenan sus modelos con información disponible públicamente. Esto típicamente significa contenido que has publicado con configuraciones de privacidad públicas. Los mensajes privados, las cuentas privadas o el contenido protegido con contraseña no deberían ser parte de estos conjuntos de datos. Siempre revisa la configuración de privacidad en las plataformas sociales.
4. ¿Qué significa "extraer datos de internet" (scraping)?
El web scraping es el uso de herramientas automatizadas para navegar sistemáticamente por sitios web y copiar texto, imágenes y metadatos disponibles públicamente. Es como una versión muy rápida y automatizada de copiar y pegar información.
5. ¿Es esto legal?
La legalidad es compleja y varía según la jurisdicción. A menudo opera en un área gris gobernada por los Términos de Servicio de un sitio web y la ley de derechos de autor. Muchas empresas se basan en el argumento de que el uso de datos disponibles públicamente para el entrenamiento de IA cae bajo el uso justo (fair use), pero esto se debate y cuestiona activamente en tribunales de todo el mundo.
Preguntas Avanzadas y Prácticas
6. ¿Por qué una IA necesitaría ver contenido ofensivo o perturbador?
Para moderar contenido de manera segura y efectiva o responder preguntas sobre temas sensibles, una IA debe poder reconocerlos. Entrenar con tales datos ayuda a la IA...