A Meta részben tulajdonában álló cég több tízezer embert fizetett meg, hogy mesterséges intelligenciát képezzenek azzal, hogy átkutatták az Instagram-fiókokat, szerzői jogvédelem alatt álló anyagokat gyűjtöttek és pornográf hanganyagokat írtak át – fedte fel a Guardian.
A Scale AI-t, amelynek 49 százalékát Mark Zuckerberg közösségi média birodalma irányítja, olyan szakértőket toborzott olyan területekről, mint az orvostudomány, a fizika és a közgazdaságtan – látszólag azért, hogy egy Outlier nevű platformon keresztül finomítsák a fejlett MI-rendszereket. Weboldaluk rugalmas munkát hirdet magasan képzett egyének számára, akiket arra hív, hogy „Legyen az a szakértő, akitől az MI tanul”.
A platformon dolgozók azonban azt állítják, hogy belekerültek abba, hogy más emberek széles körű személyes adatait kaparják össze – egy olyan gyakorlatba, amelyet erkölcsileg problémásnak és távolinak írnak le a magas szintű MI finomításától.
Az Outliert a Scale AI irányítja, egy olyan cég, amely szerződéseket kötött a Pentagonnal és amerikai védelmi vállalkozókkal. Vezérigazgatóját, Alexandr Wangot, aki egyben Meta fő MI tisztje is, a Forbes „a világ legfiatalabb önmagát felépítő milliárdosának” nevezte. Korábbi ügyvezető igazgatója, Michael Kratsios Donald Trump volt elnök tudományos tanácsadója volt.
Egy amerikai Outlier-kivitelező szerint a Meta platformjainak, mint a Facebook és az Instagram felhasználói meglepődnének, ha megtudnák, hogyan gyűjtik össze fiókjaik adatait – beleértve saját és barátaik fényképeit. „Nem hiszem, hogy az emberek felfogták volna, hogy valaki egy asztalnál ül egy random államban, nézi a [közösségi média] profilodat és azt használja MI-adatok generálására” – mondták.
A Guardian tíz olyan emberrel beszélt, akik dolgoztak az Outlier MI-rendszerek képzésén, néhányan több mint egy éve. Sokan más munkát is végeztek újságíróként, végzős hallgatóként, tanárként vagy könyvtárosként. De egy olyan gazdaságban, amelyet egyre inkább fenyeget az MI, a pótlólagos jövedelemre vágytak. „Sokan közülünk nagyon kétségbeesettek voltunk” – mondta egy dolgozó. „Sok embernek nagyon szüksége volt erre a munkára, köztük nekem is, és megpróbáltuk a legjobbat kihozni egy rossz helyzetből.”
Ahogy a világon egyre növekvő MI alkalmi munkások osztálya, a legtöbben úgy hitték, hogy a saját helyettesítőiket képezik. Egy művész „belső szégyenről és bűntudatról” beszélt, amiért „közvetlenül hozzájárult a reményeim és álmaim automatizálásához”. Hozzátették: „Emberi lényként a rendszerre haragszom.”
Glenn Danas, a Clarkson ügyvédi iroda partnere, amely MI alkalmi munkásokat képvisel a Scale AI és hasonló platformok elleni perekben, becslése szerint több százezer ember dolgozik világszerte az Outlierhez hasonló platformokon. A Guardian az Egyesült Királyságban, az USA-ban és Ausztráliában beszélt Outlier-dolgozókkal, akiket „feladat-végzőknek” neveznek.
Interjúkban a feladat-végzők leírták az MI alkalmi munkák most már ismert megaláztatásait: állandó megfigyelést és instabil, darabonkénti foglalkoztatást. A Scale AI-t „csalifogás” taktikával vádolták – magas fizetést hirdetnek a toborzás során, majd jelentősen alacsonyabb béreket ajánlanak. A Scale AI nem nyilatkozott a folyamatban lévő perekről, de egy forrás szerint a fizetési kulcsok csak akkor változnak, ha a dolgozók más, alacsonyabb fizetésű projektekhez csatlakoznak.
A feladat-végzők arról számoltak be, hogy ismételt, fizetés nélküli MI-interjúkat kellett teljesíteniük bizonyos feladatokra való jogosultságért; többen úgy vélték, hogy ezeket az interjúkat újra felhasználták az MI képzésére. Mindannyian azt mondták, hogy állandóan figyelték őket egy Hubstaff nevű platformon keresztül, amely képernyőképeket készíthetett a munka közben látogatott weboldalakról. A Scale AI forrása szerint a Hubstaffot a pontos fizetés biztosítására használják, nem pedig a feladat-végzők „aktív megfigyelésére”.
Több feladat-végző arról számolt be, hogy pornográf hanganyagok átírását vagy halott állatok, kutyaürülék képeinek címkézését kérték tőlük. Egy doktorandusz hallgató azt mondta, hogy egy csecsemői nemi szervek diagramját kellett címkézniük. Mások rendőri hívásokat írtak át, amelyek erőszakos eseményeket írtak le.
„Már korábban elmondták nekünk, hogy... 'Nem lesz meztelenség ebben a küldetésben. Megfelelő viselkedés, nincs vérontás, mint vér' – mondta a hallgató. – De aztán kaptam egy pornó hangátiratot, vagy csak random klip volt emberek hányásáról valami okból.”
A Guardian áttekintett videókat és képernyőképeket néhány olyan feladatról, amelyet az Outlier megkövetelt a dolgozóitól. Ezek között voltak kutyaürülék fényképei és olyan kérdések, mint: „Mit tennél, ha egy fogvatartott megtagadná a parancsok végrehajtását egy javítóintézetben?”
A Scale AI egy forrása kijelentette, hogy a cég leállítja a feladatokat, ha nem megfelelő tartalmat jelölnek meg, és a dolgozókat nem kötelezik olyan feladatok folytatására, amelyektől kényelmetlenül érzik magukat. A forrás hozzátette, hogy a Scale AI nem vállal olyan projekteket, amelyek gyermekek szexuális visszaélésével kapcsolatos anyagokat vagy pornográfiát tartalmaznak.
Az Outlier-dolgozók jelezték, hogy a közösségi média kaparásra számítottak. Hét feladat-végző leírta, hogy mások Instagram- és Facebook-fiókjait kutatják át, egyéneket név, hely és barátok szerint címkézve. Néhány feladat 18 év alatti emberek fiókjainak MI-képzését foglalta magában. A feladatok úgy voltak strukturálva, hogy más dolgozók által még fel nem töltött új adatokat igényeljenek, ami arra kényszerítette őket, hogy több ember közösségi média fiókjait kutassák át.
A Guardian látta egy ilyen feladatot, amely megkövetelte a dolgozóktól, hogy válasszanak fényképeket egyének Facebook-fiókjából, és sorrendbe állítsák őket a fényképen szereplő személy életkora szerint.
Több feladat-végző nyugtalanítóknak találta ezeket a feladatokat; egyikük csak hírességek és közéleti személyek fényképeivel próbálta teljesíteni őket. „Kényelmetlenül éreztem magam, hogy gyerekek és hasonlók képeit is belefoglalom, de a képzési anyagokban gyerekek is voltak” – mondta egy dolgozó.
„Nem használtam fel barátokat vagy családtagokat a feladatok MI-nek történő beküldéséhez” – mondta egy másik. „Megértem, hogy etikailag nem tetszik.”
A Scale AI forrása szerint a feladat-végzők nem tekintettek át privát közösségi média fiókokat, és nem tudott olyan feladatokról, amelyek egyének életkorának vagy személyes kapcsolatainak címkézését foglalták volna magukban. Hozzátették, hogy a Scale AI nem vállal olyan projekteket, amelyek kifejezetten gyerekekkel kapcsolatos érzékeny tartalmakat tartalmaznak, de használ gyerekek nyilvános közösségi média adatait. A dolgozók nem jelentkeztek be személyes Facebook- vagy Instagram-fiókokba ezen feladatok teljesítéséhez.
Egy másik feladathoz a feladat-végzők szerzői jogvédelem alatt álló műalkotások képeinek gyűjtését írták le. Hasonlóan a közösségi média képzéshez, a feladat állandó új bemenetet igényelt – látszólag azért, hogy egy MI-t képezzenek saját művészi képek előállítására. Ahogy a dolgozók kifogytak a lehetőségekből, művészek és alkotók közösségi média fiókjaihoz fordultak.
A Guardian áttekintette ennek a feladatnak a dokumentációját, amely tartalmazott MI által generált festményeket „egy őslakos amerikai gondozóról” és az utasítást: „NE használj MI által generált képeket. Csak emberi művészek által készített kézzel rajzolt, festett vagy illusztrált műalkotásokat válassz.”
A Scale AI forrása szerint a cég nem kéri a közreműködőket, hogy szerzői jogvédelem alatt álló műalkotásokat használjanak feladatok teljesítéséhez, és visszautasítja az ezt a szabványt megsértő munkát.
A feladat-végzők bizonytalanságot is kifejeztek afelől, hogy mire képezhetik az MI-t, és hogyan használják fel a beküldéseiket.
„Úgy tűnik, hogy a diagramok címkézése olyasmi, amit egy MI már meg tud csinálni, szóval nagyon kíváncsi vagyok, hogy miért van szükségünk olyasmikre, mint halott állatok” – mondta egyikük.
A Scale AI ügyfelei között voltak olyan nagy technológiai cégek, mint a Google, a Meta és az OpenAI, valamint az amerikai Védelmi Minisztérium és Katar kormánya. A cég egy növekvő igényt szolgál ki, ahogy az MI-modellek bővülnek: új, címkézett adatokra van szükség a képzésükhöz.
A feladat-végzők leírták, hogy a ChatGPT-vel és Claude-val kommunikáltak vagy Meta adatait használták feladatok teljesítéséhez; néhányan úgy gondolták, hogy talán Meta új modelljét, az Avocadot képezik.
A Meta és az Anthropic nem reagált a megjegyzéskérésre. Az OpenAI kijelentette, hogy 2025 júniusában abbahagyta a Scale AI-val való együttműködést, és hogy „beszállítói magatartási kódexe egyértelmű elvárásokat fogalmaz meg mindenkinek etikus és tisztességes bánásmódjára vonatkozóan”.
A Guardian által megkérdezettek többsége továbbra is vállal munkát az Outlier platformon keresztül. A jövedelem ingadozó, és néha nagy méretű csökkentések is vannak. Mégis, az MI-korszak gyors közeledtével úgy érzik, hogy kevés alternatíva lehet.
„Optimistának kell maradnom az MI-val kapcsolatban, mert különben a kilátások nem túl jók” – mondta egy dolgozó. „Szóval hiszem, hogy a dolgok végül megoldódnak.”
A Scale AI szóvivője kijelentette: „Az Outlier rugalmas, projektalapú munkát kínál egyértelmű kompenzációval. A közreműködők döntenek arról, mikor és mennyit vesznek részt, és a lehetőségek a projektigény alapján ingadoznak. Gyakran hallunk magasan képzett egyénektől, akik értékelik a rugalmasságot és a lehetőséget, hogy szakértelmüket használhassák platformunkon.”
Gyakran Ismételt Kérdések
GIK az MI képzéséhez szükséges adatgyűjtésről
Jogi nyilatkozat Ez a GIK egy jelentett gyakorlatot tárgyal, amely nyilvánosan hozzáférhető online adatok felhasználásával képezi a mesterséges intelligenciát. A kérdésedben szereplő konkrét példákat itt illusztratív kategóriaként használjuk az internetes tartalmak széles skálájára, amelyet kaparhatnak. Ez a GIK egyértelmű, tényalapú információt kíván nyújtani az általános folyamatról.
Kezdő szintű kérdések
1. Mik a feladat-végzők ebben a kontextusban?
A feladat-végzők egy informális kifejezés, amely gyakran a hatalmas mennyiségű online adat gyűjtéséért és címkézéséért felelős dolgozókat vagy automatizált rendszereket írja le. Feladatuk ezen adatok összegyűjtése, hogy felhasználhassák az MI-modellek képzésére.
2. Miért van szüksége egy MI-cégnek ilyen adatokra?
Az MI-modellek, különösen azok, amelyek képeket és szöveget generálnak vagy értelmeznek, hatalmas, változatos adathalmazok elemzésével tanulnak. Ahhoz, hogy kezelni tudják a való világot, mindenről szükségük van példákra, amiről az emberek beszélnek, posztolnak és keresnek online – a mindennapi közösségi média fényképektől a niche vagy explicit tartalmakig. Ez segít az MI-nek megérteni a kontextust, felismerni az objektumokat és releváns válaszokat generálni.
3. A privát közösségi média adataimat veszik el?
Általánosságban az MI-cégek azt állítják, hogy modelleiket nyilvánosan hozzáférhető információkra képezik. Ez jellemzően olyan tartalmat