Porno, cacca di cane e foto dei social media: i "tasker" che setacciano internet per l'azienda di IA di Meta.

Porno, cacca di cane e foto dei social media: i "tasker" che setacciano internet per l'azienda di IA di Meta.

Una società in parte di proprietà di Meta ha pagato decine di migliaia di persone per addestrare l'intelligenza artificiale esaminando account Instagram, raccogliendo materiale protetto da copyright e trascrivendo audio pornografico, rivela il Guardian.

Scale AI, controllata al 49% dall'impero dei social media di Mark Zuckerberg, ha reclutato esperti in campi come medicina, fisica ed economia - apparentemente per perfezionare sistemi di IA avanzati attraverso una piattaforma chiamata Outlier. Il suo sito web pubblicizza lavoro flessibile per persone altamente qualificate, invitandole a "Diventare l'esperto da cui l'IA impara".

Tuttavia, i lavoratori sulla piattaforma affermano di essere stati coinvolti nella raccolta di un'ampia gamma di dati personali di altre persone - una pratica che descrivono come moralmente problematica e lontana dal perfezionamento di IA di alto livello.

Outlier è gestita da Scale AI, un'azienda che detiene contratti con il Pentagono e appaltatori della difesa statunitense. Il suo CEO, Alexandr Wang, che è anche il chief AI officer di Meta, è stato definito da Forbes "il più giovane miliardario self-made al mondo". Il suo ex managing director, Michael Kratsios, è stato consigliere scientifico dell'ex presidente Donald Trump.

Un contractor statunitense di Outlier ha dichiarato che gli utenti delle piattaforme Meta come Facebook e Instagram sarebbero sorpresi di scoprire come i dati dei loro account - comprese foto di sé e degli amici - vengano raccolti. "Non credo che la gente capisse che ci sarebbe stato qualcuno a una scrivania in uno stato a caso, che guarda il tuo profilo [social media] e lo usa per generare dati per l'IA", hanno affermato.

Il Guardian ha parlato con 10 persone che hanno lavorato per Outlier addestrando sistemi di IA, alcune per oltre un anno. Molti avevano altri lavori come giornalisti, studenti laureati, insegnanti o bibliotecari. Ma in un'economia sempre più minacciata dall'IA, cercavano un reddito extra. "Molti di noi erano davvero disperati", ha detto un lavoratore. "Molte persone avevano davvero bisogno di questo lavoro, me compreso, e cercavano di trarre il meglio da una situazione difficile".

Come la crescente classe globale di lavoratori gig dell'IA, la maggior parte credeva di addestrare i propri sostituti. Un artista ha parlato di "vergogna e senso di colpa interiorizzati" per "contribuire direttamente all'automazione delle mie speranze e sogni". Hanno aggiunto: "Come aspirante essere umano, mi fa arrabbiare con il sistema".

Glenn Danas, partner dello studio legale Clarkson, che rappresenta lavoratori gig dell'IA in cause contro Scale AI e piattaforme simili, stima che centinaia di migliaia di persone in tutto il mondo lavorino ora per piattaforme come Outlier. Il Guardian ha parlato con lavoratori Outlier, chiamati "tasker", nel Regno Unito, Stati Uniti e Australia.

Nelle interviste, i tasker hanno descritto le umiliazioni ormai familiari del lavoro gig nell'IA: monitoraggio costante e occupazione instabile e frammentaria. Scale AI è stata accusata di usare tattiche "esca e cambio" - pubblicando stipendi alti durante il reclutamento, per poi offrire compensi significativamente inferiori. Scale AI ha declinato di commentare le cause in corso, ma una fonte ha affermato che le tariffe cambiano solo se i lavoratori scelgono di unirsi a progetti diversi e meno pagati.

I tasker hanno riferito di dover completare ripetuti colloqui di IA non retribuiti per qualificarsi per certi incarichi; diversi credevano che questi colloqui fossero riutilizzati per addestrare l'IA. Tutti hanno detto di essere costantemente monitorati attraverso una piattaforma chiamata Hubstaff, che poteva catturare screenshot dei siti web visitati durante il lavoro. La fonte di Scale AI ha affermato che Hubstaff è usato per garantire pagamenti accurati, non per "monitorare attivamente" i tasker.

Diversi tasker hanno descritto di essere stati incaricati di trascrivere audio pornografico o etichettare immagini di animali morti o feci di cane. Uno studente di dottorato ha detto di aver dovuto etichettare un diagramma di genitali infantili. Altri hanno trascritto chiamate della polizia che descrivevano incidenti violenti.

"Ci era già stato detto prima che... 'Non ci sarebbe nudità in questa missione. Comportamento appropriato, niente scene cruente, tipo niente sangue'", ha detto lo studente. "Ma poi ricevevo una trascrizione audio per porno, o c'erano solo clip casuali di persone che vomitavano per qualche motivo".

Il Guardian ha esaminato video e screenshot di alcuni compiti che Outlier richiedeva ai suoi lavoratori di eseguire. Questi includevano foto di feci di cane e prompt come: "Cosa faresti se un detenuto rifiutasse di seguire gli ordini in una struttura correzionale?"

Una fonte di Scale AI ha dichiarato che l'azienda interrompe i compiti se viene segnalato contenuto inappropriato e che i lavoratori non sono obbligati a continuare con compiti che li mettono a disagio. La fonte ha aggiunto che Scale AI non intraprende progetti che coinvolgono materiale di abuso sessuale minorile o pornografia.

I lavoratori Outlier hanno indicato che c'era un'aspettativa di scraping dei social media. Sette tasker hanno descritto l'esame di account Instagram e Facebook di altre persone, etichettando individui per nome, posizione e amici. Alcuni compiti coinvolgevano l'addestramento dell'IA su account di persone sotto i 18 anni. Gli incarichi erano strutturati per richiedere nuovi dati non ancora caricati da altri lavoratori, spingendoli a scavare in più account social media.

Il Guardian ha visto uno di questi compiti che richiedeva ai lavoratori di selezionare foto dagli account Facebook di individui e ordinarle sequenzialmente in base all'età della persona nella foto.

Diversi tasker hanno trovato questi incarichi inquietanti; uno ha cercato di completarli usando solo foto di celebrità e figure pubbliche. "Mi metteva a disagio includere foto di bambini e simili, ma i materiali di formazione includevano bambini", ha detto un lavoratore.

"Non ho usato amici o familiari per inviare compiti all'IA", ha detto un altro. "Capisco che eticamente non mi piaccia".

La fonte di Scale AI ha affermato che i tasker non esaminavano account social media privati e non era a conoscenza di compiti che coinvolgevano l'etichettatura dell'età o delle relazioni personali degli individui. Hanno aggiunto che Scale AI non intraprende progetti con contenuto sensibile esplicito relativo ai bambini, ma utilizza dati di social media pubblici dei bambini. I lavoratori non accedevano a account Facebook o Instagram personali per completare questi compiti.

Per un altro incarico, i tasker hanno descritto la raccolta di immagini di opere d'arte protette da copyright. Simile all'addestramento sui social media, il compito richiedeva costantemente nuovi input - apparentemente per addestrare un'IA a produrre le proprie immagini artistiche. Quando i lavoratori esaurivano le opzioni, si rivolgevano agli account social media di artisti e creatori.

Il Guardian ha visto documentazione di questo incarico, che includeva dipinti generati dall'IA di "un assistente nativo americano" e l'istruzione: "NON usare immagini generate dall'IA. Selezionare solo opere d'arte disegnate a mano, dipinte o illustrate create da artisti umani".

La fonte di Scale AI ha affermato che l'azienda non chiede ai collaboratori di usare opere d'arte protette da copyright per completare gli incarichi e rifiuta lavori che violano questo standard.

I tasker hanno anche espresso incertezza su cosa potessero addestrare l'IA a fare e su come i loro contributi sarebbero stati utilizzati.

"Sembra proprio che etichettare diagrammi sia qualcosa che un'IA può già fare, quindi sono davvero curioso del perché abbiamo bisogno di cose come animali morti", ha detto uno.

I clienti di Scale AI hanno incluso importanti aziende tecnologiche come Google, Meta e OpenAI, oltre al Dipartimento della Difesa degli Stati Uniti e al governo del Qatar. L'azienda affronta un bisogno crescente man mano che i modelli di IA si espandono: nuovi dati etichettati per addestrarli.

I tasker hanno descritto l'interazione con ChatGPT e Claude o l'uso di dati da Meta per completare incarichi; alcuni pensavano di poter addestrare il nuovo modello di Meta, Avocado.

Meta e Anthropic non hanno risposto a una richiesta di commento. OpenAI ha dichiarato di aver interrotto la collaborazione con Scale AI nel giugno 2025 e che il suo "codice di condotta dei fornitori stabilisce chiare aspettative per il trattamento etico ed equo di tutti".

La maggior parte dei tasker con cui il Guardian ha parlato continua ad accettare lavoro attraverso la piattaforma Outlier. Il reddito è incostante e a volte ci sono tagli su larga scala. Tuttavia, con l'era dell'IA che si avvicina rapidamente, sentono che potrebbero esserci poche alternative.

"Devo rimanere ottimista sull'IA perché le prospettive altrimenti non sono grandi", ha detto un lavoratore. "Quindi credo che le cose alla fine si sistemeranno".

Un portavoce di Scale AI ha dichiarato: "Outlier offre lavoro flessibile basato su progetti con compensazione chiara. I collaboratori decidono quando e quanto impegnarsi, e le opportunità fluttuano in base alla domanda del progetto. Sentiamo spesso da persone altamente qualificate che apprezzano la flessibilità e la possibilità di usare la loro esperienza sulla nostra piattaforma".



Domande Frequenti
FAQ sulla Raccolta Dati per l'Addestramento dell'IA



Disclaimer Queste FAQ affrontano una pratica segnalata di utilizzo di dati online pubblicamente disponibili per addestrare l'intelligenza artificiale Gli esempi specifici nella tua query sono usati qui come categorie illustrative della vasta gamma di contenuti internet che possono essere raccolti Queste FAQ mirano a fornire informazioni fattuali chiare sul processo generale



Domande di Livello Base



1 Cosa sono i "tasker" in questo contesto

"Tasker" è un termine informale spesso usato per descrivere i lavoratori o sistemi automatizzati responsabili della raccolta ed etichettatura di vaste quantità di dati online Il loro compito è raccogliere questi dati in modo che possano essere usati per addestrare modelli di IA



2 Perché un'azienda di IA ha bisogno di questo tipo di dati

I modelli di IA, specialmente quelli che generano o comprendono immagini e testo, imparano analizzando dataset massicci e diversificati Per gestire il mondo reale, hanno bisogno di esempi di tutto ciò di cui le persone parlano, pubblicano e cercano online - dalle foto quotidiane sui social media a contenuti più di nicchia o espliciti Questo aiuta l'IA a comprendere il contesto, riconoscere oggetti e generare risposte pertinenti



3 I miei dati privati dei social media vengono presi

Generalmente, le aziende di IA dichiarano di addestrare i loro modelli su informazioni pubblicamente disponibili Questo tipicamente significa contenuti che hai pubblicato con impostazioni di privacy pubbliche Messaggi privati, account privati o contenuti protetti da password non dovrebbero far parte di questi dataset Controlla sempre le tue impostazioni di privacy sulle piattaforme social



4 Cosa significa "scraping" di internet

Lo web scraping è l'uso di strumenti automatizzati per navigare sistematicamente siti web e copiare testo, immagini e metadati pubblicamente disponibili È come una versione molto veloce e automatizzata di copiare e incollare informazioni



5 È legale

La legalità è complessa e varia per giurisdizione Spesso opera in un'area grigia governata dai Termini di Servizio di un sito web e dalla legge sul copyright Molte aziende si basano sull'argomento che l'uso di dati pubblicamente disponibili per l'addestramento dell'IA rientri nel fair use, ma questo è attivamente dibattuto e contestato nei tribunali di tutto il mondo



Domande Avanzate e Pratiche



6 Perché un'IA avrebbe bisogno di vedere contenuti offensivi o disturbanti

Per moderare contenuti in modo sicuro ed efficace o rispondere a domande su argomenti sensibili, un'IA deve essere in grado di riconoscerli L'addestramento su tali dati aiuta l'