Порно, кучешки изпражнения и снимки от социалните мрежи: "изпълнителите на задачи", които обхождат интернет за AI компанията на Meta.

Порно, кучешки изпражнения и снимки от социалните мрежи: "изпълнителите на задачи", които обхождат интернет за AI компанията на Meta.

Компания, частично притежавана от Meta, е платила на десетки хиляди хора за обучение на изкуствен интелект чрез преглед на профили в Instagram, събиране на материал с авторски права и транскрибиране на порнографски аудиозаписи, разкрива The Guardian.

Scale AI, която е контролирана в размер на 49% от социалната медийна империя на Марк Зукърбърг, нае експерти в области като медицина, физика и икономика – привидно за усъвършенстване на напреднали AI системи чрез платформата Outlier. Сайтът ѝ рекламира гъвкава работа за висококвалифицирани лица, като ги кани да "станат експертите, от които AI се учи".

Работниците на платформата обаче твърдят, че са били въвлечени в събиране на широк спектър от лични данни на други хора – практика, която описват като морално тревожна и далеч от усъвършенстването на високо ниво на AI.

Outlier се управлява от Scale AI – компания, сключвала договори с Пентагона и американски военни изпълнители. Нейният изпълнителен директор Александър Уанг, който е и главен директор по AI в Meta, беше определен от Forbes като "най-младият самосъздал се милиардер". Бившият й управителен директор Майкъл Крациос служеше като научен съветник на бившия президент Доналд Тръмп.

Един изпълнител на Outlier от САЩ заяви, че потребителите на платформи на Meta като Facebook и Instagram биха били изненадани да разберат как данните от техните профили – включително снимки на тях и техните приятели – биват събирани. "Не мисля, че хората разбират, че някой ще седи на бюро в случайно избран щат, да разглежда вашия [социалномедиен] профил и да го използва за генериране на AI данни", каза те.

The Guardian разговаря с 10 души, работили за Outlier за обучение на AI системи, някои от тях повече от година. Мнозина имат други работни места като журналисти, студенти, учители или библиотекари. Но в икономика, все по-застрашена от AI, те търсеха допълнителен доход. "Много от нас бяха наистина отчаяни", каза един работник. "Много хора наистина се нуждаеха от тази работа, включително и аз, и се опитваха да извлекат най-доброто от лоша ситуация."

Подобно на растящата глобална класа от работници в сектора на AI, повечето вярваха, че обучават собствената си замяна. Един художник говори за "интериоризиран срам и вина" за "прякото си принос към автоматизацията на надеждите и мечтите ми". Те допълниха: "Като човек с амбиции, това ме кара да се ядосвам на системата."

Глен Данас, партньор в адвокатската кантора Clarkson, която представлява работници в сектора на AI в дела срещу Scale AI и подобни платформи, оценява, че стотици хиляди хора по света вече работят за платформи като Outlier. The Guardian разговаря с работници на Outlier, наричани "изпълнители на задачи", във Великобритания, САЩ и Австралия.

В интервюта изпълнителите на задачи описаха вече познатите унижения в работата с AI: постоянно наблюдение и нестабилна, частична заетост. Scale AI беше обвинена в използване на тактика "примамка и смяна" – рекламиране на високи заплати при набиране, след което предлагане на значително по-ниско заплащане. Scale AI отказа да коментира текущите съдебни дела, но източник каза, че ставките на заплащане се променят само ако работниците изберат да се присъединят към различни, по-ниско платени проекти.

Изпълнителите на задачи съобщиха, че трябва да изпълняват повтарящи се, неплатени AI интервюта, за да се квалифицират за определени задачи; няколко от тях смятат, че тези интервюта са били използвани повторно за обучение на AI. Всички заявиха, че са постоянно наблюдавани чрез платформата Hubstaff, която може да прави екранни снимки на уебсайтовете, които посещават докато работят. Източник от Scale AI каза, че Hubstaff се използва за осигуряване на точно заплащане, а не за "активно наблюдение" на изпълнителите на задачи.

Няколко изпълнители на задачи описаха, че са били помолени да транскрибират порнографски аудио или да маркират изображения на мъртви животни или животински изпражнения. Един докторант каза, че трябвало да маркира диаграма на гениталиите на бебе. Други транскрибираха полицейски обаждания, описващи насилствени инциденти.

"Вече ни бяха казали преди, че... 'В тази задача няма да има голота. Подходящо поведение, никакви кървави сцени, като кръв'", каза студентът. "Но след това щях да получа аудио транскрипт за порно, или просто случайни клипове на хора, повръщащи по някаква причина."

The Guardian прегледа видеоклипове и екранни снимки на някои задачи, които Outlier изискваше от работниците си да изпълняват. Те включваха снимки на животински изпражнения и въпроси като: "Какво бихте направили, ако затворник откаже да изпълнява заповеди в поправително заведение?"

Източник от Scale AI заяви, че компанията прекратява задачи, ако се сигнализира за неподходящо съдържание, и че работниците не са задължени да продължават с задачи, които ги карат да се чувстват неудобно. Източникът допълни, че Scale AI не поема проекти, свързани с материали за сексуална злоупотреба с деца или порнография.

Работниците на Outlier посочиха, че има очакване за събиране на данни от социалните медии. Седем изпълнители на задачи описаха претърсване на профили в Instagram и Facebook на други хора, маркирайки индивиди по име, местоположение и приятели. Някои задачи включваха обучение на AI върху профили на хора под 18 години. Задачите бяха структурирани така, че да изискват нови данни, все още не качени от други работници, като ги подтикваха да се ровят в профилите в социалните медии на повече хора.

The Guardian видя една такава задача, изискваща от работниците да избират снимки от Facebook профилите на индивиди и да ги подреждат последователно според възрастта на човека на снимката.

Няколко изпълнители на задачи намериха тези задачи за обезпокоителни; един се опита да ги изпълни, използвайки само снимки на знаменитости и публични личности. "Чувствах се неудобно да включвам снимки на деца и подобни неща, но учебните материали съдържаха деца", каза един работник.

"Не използвах никакви приятели или семейство, за да подавам задачи на AI", каза друг. "Разбирам, че това не ми харесва етично."

Източник от Scale AI каза, че изпълнителите на задачи не са преглеждали лични профили в социалните медии и не е запознат със задачи, включващи маркиране на възрастта на индивидите или личните им взаимоотношения. Те допълниха, че Scale AI не поема проекти с изрично чувствително съдържание, свързано с деца, но използва публични данни от социалните медии на деца. Работниците не са влизали в лични Facebook или Instagram профили, за да изпълнят тези задачи.

За друга задача изпълнителите описаха събиране на изображения на художествени творби с авторски права. Подобно на обучението със социални медии, задачата изискваше постоянно нови данни – привидно за обучение на AI да създава свои собствени художествени изображения. Тъй като възможностите на работниците се изчерпваха, те се обръщаха към профилите в социалните медии на художници и творци.

The Guardian видя документация за тази задача, която включваше AI-генерирани картини на "грижовник от коренното население на Америка" и инструкцията: "НЕ използвайте AI-генерирани изображения. Избирайте само ръчно рисувани, боядисани или илюстрирани художествени творби, създадени от човешки художници."

Източник от Scale AI каза, че компанията не иска от сътрудниците да използват художествени творби с авторски права за изпълнение на задачи и отказва работа, която нарушава този стандарт.

Изпълнителите на задачи също изразиха несигурност относно това на какво може би обучават AI и как техните подадени материали ще бъдат използвани.

"Наистина изглежда, че маркирането на диаграми е нещо, което AI вече може да прави, така че съм наистина любопитен защо се нуждаем от неща като мъртви животни", каза един.

Клиенти на Scale AI са включвали големи технологични компании като Google, Meta и OpenAI, както и Министерството на отбраната на САЩ и правителството на Катар. Компанията отговаря на растяща нужда с разширяването на AI моделите: за нови, маркирани данни за тяхното обучение.

Изпълнителите на задачи описаха взаимодействие с ChatGPT и Claude или използване на данни от Meta за изпълнение на задачи; някои смятат, че може би обучават новия модел на Meta, Avocado.

Meta и Anthropic не отговориха на искане за коментар. OpenAI заяви, че е престанала да работи със Scale AI през юни 2025 г. и че нейният "кодекс за поведение на доставчиците определя ясни очаквания за етично и справедливо отношение към всички."

Повечето от изпълнителите на задачи, с които The Guardian разговаря, продължават да поемат работа чрез платформата Outlier. Доходът е непостоянен и понякога има големи съкращения. Все пак, с бързото настъпване на ерата на AI, те чувстват, че може да има малко алтернативи.

"Трябва да остана оптимистичен относно AI, защото перспективите иначе не са добри", каза един работник. "Затова вярвам, че в крайна сметка всичко ще се нареди."

Представител на Scale AI заяви: "Outlier предлага гъвкава, проектна работа с ясно заплащане. Сътрудниците решават кога и колко да се ангажират, а възможностите варират в зависимост от търсенето на проекти. Често чуваме от висококвалифицирани лица, които оценяват гъвкавостта и възможността да използват своята експертиза на нашата платформа."

Често задавани въпроси
ЧЗВ относно събирането на данни за обучение на AI

Отказ от отговорност: Този ЧЗВ се отнася до докладвана практика за използване на публично достъпни онлайн данни за обучение на изкуствен интелект. Конкретните примери във вашата заявка се използват тук като илюстративни категории от огромния спектър на интернет съдържание, което може да бъде събирано. Този ЧЗВ има за цел да предостави ясна, фактическа информация за общия процес.

Въпроси за начинаещи

1. Какво представляват "изпълнители на задачи" в този контекст?
"Изпълнители на задачи" е неформален термин, често използван за описание на работниците или автоматизираните системи, отговорни за събирането и маркирането на огромни количества онлайн данни. Тяхната задача е да събират тези данни, за да могат да се използват за обучение на AI модели.

2. Защо една AI компания се нуждае от този вид данни?
AI моделите, особено тези, които генерират или разбират изображения и текст, се учат чрез анализ на масивни, разнообразни набори от данни. За да се справят с реалния свят, те се нуждаят от примери за всичко, за което хората говорят, публикуват и търсят онлайн – от ежедневни снимки в социалните медии до по-нишово или изрично съдържание. Това помага на AI да разбира контекста, да разпознава обекти и да генерира подходящи отговори.

3. Вземат ли се моите лични данни от социалните медии?
По принцип AI компаниите заявяват, че обучават моделите си върху публично достъпна информация. Това обикновено означава съдържание, което сте публикували с публични настройки за поверителност. Личните съобщения, личните профили или съдържанието, защитено с парола, не трябва да са част от тези набори от данни. Винаги проверявайте настройките си за поверителност в социалните платформи.

4. Какво означава "събиране на данни от интернет"?
Уеб събирането на данни е използването на автоматизирани инструменти за систематично разглеждане на уебсайтове и копиране на публично достъпен текст, изображения и метаданни. Това е като много бърза, автоматизирана версия на копиране и поставяне на информация.

5. Законно ли е това?
Законността е сложна и варира според юрисдикцията. Често тя работи в сива зона, регулирана от Общите условия на услугата на уебсайта и законите за авторското право. Много компании разчитат на аргумента, че използването на публично достъпни данни за обучение на AI попада под допустимото използване, но това активно се дебатира и оспорва в