Największa na świecie firma muzyczna wkroczyła do branży AI. W zeszłym roku Universal Music Group (UMG) wraz z Warner Records i Sony Music Entertainment pozwały dwie start-upy zajmujące się muzyczną sztuczną inteligencją, oskarżając je o wykorzystywanie ich nagrań do trenowania modeli tekst-na-muzykę bez zezwolenia.
Jednak w zeszłym miesiącu UMG ogłosiło partnerstwo z jednym z pozwanych, Udio, w celu rozwoju platformy muzycznej AI. Ich wspólny komunikat prasowy obiecywał, że wytwórnia "postąpi właściwie wobec artystów UMG". Jednak grupa advocacy Music Artists Coalition zareagowała sceptycznie, stwierdzając: "Widzieliśmy to już wcześniej – wszyscy mówią o 'partnerstwie', ale artyści kończą z ochłapami".
Pozew ten jest jednym z dziesiątek w amerykańskich sądach, w których artyści, wydawcy i studia argumentują, że wykorzystywanie ich pracy do szkolenia AI narusza prawa autorskie. Sędziowie zmagają się z tym, jak zastosować prawo autorskie do technologii, która kwestionuje tradycyjne pojęcie autorstwa. Dla wielu jest to kwestia zarówno prawna, jak i etyczna. W sprawie Andersen przeciwko Stability AI – jednym z pierwszych pozwów zbiorowych dotyczących generatorów obrazów AI – artyści twierdzą, że wykorzystywanie ich pracy bez uznania autorstwa, zapłaty lub zgody "narusza prawa milionów artystów".
Nie ma wątpliwości, że twórcy cierpią z powodu boomu na AI, ponieważ generatywna sztuczna inteligencja zastępuje ludzką pracę twórczą. W styczniu 2024 roku ponad jedna trzecia ankietowanych ilustratorów przez Society of Authors zgłosiła utratę dochodów z powodu AI, a jedno z badań przewiduje 21% spadek przychodów twórców audiowizualnych do 2028 roku.
W odpowiedzi nowy ruch aktywistów zjednoczył szefów branży rozrywkowej i artystów przeciwko branży technologicznej poprzez kampanie w mediach społecznościowych, lobbing finansowany społecznie i pozwy. Kampania Human Artistry Campaign, założona na zasadzie, że "AI nigdy nie zastąpi ludzkiej ekspresji", łączy twórców i szefów firm, aby wspierać ustawodawstwo chroniące artystów przed AI i wielkimi technologiami. Jednak niektórzy artyści, twórcy i grupy obrony wolności obywatelskich ostrzegają przed innym zagrożeniem: wielkimi firmami zajmującymi się treściami.
Co się stanie, gdy dobrze intentioned twórcy sprzymierzą się z wielkimi konglomeratami medialnymi, które historycznie wyzyskiwały ich pracę i rozszerzały prawa autorskie wbrew interesowi publicznemu? Chociaż niektórzy artyści usprawiedliwiają to strategią "wróg mojego wroga", to podejście zawodzi, jeśli wielkie firmy treściowe i technologiczne staną się sojusznikami.
Prawnik praw autorskich Dave Hansen z Authors Alliance twierdzi, że pozwy o naruszenie praw autorskich nie ochronią artystów przed AI. Zamiast tego doprowadzą one do wyłącznych umów licencyjnych między dużymi firmami medialnymi i technologicznymi, pomijając wszystkich innych. Historia potwierdza ten cyniczny pogląd – gdy pojawił się streaming, wytwórnie i studia czerpały zyski, podczas gdy muzycy, pisarze i aktorzy pozostawali w tyle.
Czy licencjonowanie AI będzie inne? Gdy Runway AI i Lionsgate zawarły umowę licencyjną, dyrektor generalny United Talent Agency, Jeremy Zimmer, zapytał, czy artyści zaangażowani w filmy Lionsgate otrzymają wynagrodzenie, gdy ich praca będzie trenować modele AI. W kilku wielomilionowych umowach między wydawcami a firmami AI autorzy nie otrzymali ani zapłaty, ani prawa do rezygnacji.
Nawet jeśli amerykańskie sądy zobowiążą firmy technologiczne do płacenia za dane treningowe AI, pracujący artyści prawdopodobnie na tym nie skorzystają. Stworzenie systemu licencjonowania przy obecnej nierównowadze sił może pozwolić firmom medialnym na wywieranie presji na artystów, aby zrzekli się praw do treningu jako warunku zatrudnienia – z czym już zetknęli się aktorzy głosowi. Obowiązkowe licencjonowanie również niekoniecznie pomogłoby artystom. Wymogi licencyjne powstrzymują Wielkie Technologie. Chociaż giganty takie jak Google i OpenAI mogą sobie pozwolić na płacenie za licencje na dane, mniejsi deweloperzy open-source AI nie mogą. Paradoksalnie, użycie praw autorskich do kwestionowania Wielkich Technologii tylko wzmacnia ich dominację.
Wiele propozycji, które rzekomo "chronią artystów", nie tylko nie spełnia tego celu, ale także ryzykuje szkodę zarówno artystom, jak i społeczeństwu. W USA ustawa NO FAKES Act – popierana przez główne grupy rozrywkowe – ma na celu stworzenie federalnego "prawa do cyfrowej replikacji" w celu kontrolowania niekonsensualnych kopii AI głosu lub wyglądu danej osoby. Jednak organizacje wolności obywatelskich, takie jak Center for Democracy and Technology i ACLU, wyraziły obawy dotyczące niejasnego brzmienia ustawy, niewystarczających zabezpieczeń wolności słowa i potencjału do nadużyć. Ustawa pozwoliłaby osobom, w tym dzieciom, na licencjonowanie praw do ich cyfrowych replik na okres do dziesięciu lat (pięć lat dla nieletnich). Nietrudno wyobrazić sobie szefów studiów, którzy z zapałem wywierają presję na młodych artystów, aby zrzekli się kontroli nad własną tożsamością.
Dlaczego te rozwiązania nie trafiają w sedno? Ponieważ wiele pozwów o naruszenie praw autorskich, schematów licencjonowania i propozycji praw cyfrowych to konie trojańskie dla dużych firm treściowych. Copyright Alliance, potężna organizacja non-profit, która twierdzi, że reprezentuje "społeczność praw autorskich", naciska na surowe przepisy praw autorskich dotyczące generatywnej AI. Chociaż deklaruje wsparcie dla indywidualnych twórców, jej zarząd jest wypełniony dyrektorami z medialnych tytanów, takich jak Paramount, NBC Universal, Disney i Warner Bros.
Po co całe to publiczne budowanie koalicji, skoro branża rozrywkowa mogłaby po prostu zawierać lukratywne umowy z firmami technologicznymi za kulisami? Ponieważ Wielkie Treści polegają na artystach. Ich imperia medialne potrzebują pracy artystów, aby czerpać zyski, ich działania lobbingowe wymagają poparcia artystów, aby wyglądać na wiarygodne, a ich nowi partnerzy AI potrzebują dzieł artystów.
Ta rzeczywistość uwydatnia strategię, która niepokoi szefów branży rozrywkowej bardziej niż AI: zorganizowana siła robocza. Związani zawodowi twórcy, tacy jak ci z Writers Guild i SAG-AFTRA, wywalczyli znaczne ochrony przed AI poprzez strajki i negocjacje zbiorowe. Prawo autorskie jest zbyt przestarzałe, sztywne i nieporadne, aby określać przyszłość i tak już wrażliwej siły roboczej twórców. Gdyby Wielkie Treści naprawdę chciały chronić artystów przed AI, przestałyby próbować sprzedawać ich głosy jako dane treningowe i zaczęły słuchać, co mają do powiedzenia.
Alexander Avila jest twórcą wideoesejów, pisarzem i badaczem.
Często zadawane pytania
Oczywiście Oto lista FAQ na temat: Główne firmy medialne kwestionują AI, ale to nie jest historia słabszego, którą przedstawiają, inspirowana perspektywą Alexandra Avili.
Ogólne Pytania dla początkujących
1. O czym jest ten artykuł/wideo?
Dotyczy on bitew prawnych między dużymi firmami medialnymi a firmami AI. Twierdzi, że medialne giganty przedstawiają się jako mali gracze walczący z technologicznym Goliatem, podczas gdy w rzeczywistości są to potężne korporacje z własnymi motywami.
2. Dlaczego firmy medialne pozywają firmy AI?
Pozew dotyczy głównie naruszenia praw autorskich. Twierdzą, że modele AI były szkolone na ich artykułach, opowiadaniach i innych treściach bez pozwolenia lub zapłaty, co ich zdaniem jest nielegalne i dewaluuje ich pracę.
3. Co oznacza "to nie jest historia słabszego"?
Oznacza to, że nie powinniśmy tego postrzegać jako walkę Dawida z Goliatem. Firmy medialne same w sobie są ogromnymi, wpływowymi korporacjami i używają tej narracji, aby zyskać sympatię publiczną i wzmocnić swoją pozycję prawną i biznesową.
4. Czym są dane treningowe AI?
Dane treningowe AI to ogromna ilość tekstu, obrazów i innych informacji, z których uczy się model AI. Aby stać się wiedzącymi, systemy AI, takie jak ChatGPT, czytają miliardy słów z książek, stron internetowych i tak, artykułów prasowych pozyskanych z internetu.
Zaawansowane Głębsze pytania
5. Jeśli treści mediów są publicznie dostępne, dlaczego AI nie może ich używać do szkolenia?
To jest sedno debaty prawnej. Firmy medialne argumentują, że publiczna dostępność treści nie oznacza, że można jej swobodnie używać do celów komercyjnych. Firmy AI często opierają się na doktrynie dozwolonego użytku, która pozwala na ograniczone użycie materiałów chronionych prawem autorskim do celów takich jak badania i edukacja, ale jej zastosowanie do szkolenia AI nie zostało jeszcze przetestowane w sądzie.
6. Jakie są prawdziwe motywacje firm medialnych poza prawami autorskimi?
Poza ochroną praw autorskich ich motywacje prawdopodobnie obejmują:
Dźwignię do umów licencyjnych: Chcą zmusić firmy AI do płacenia im za korzystanie z ich treści, tworząc nowe źródło przychodów.
Kontrolę rynku: Chcą zapewnić, że ich marki pozostaną autorytatywnymi źródłami informacji i nie zostaną zastąpione przez AI.
Konkurencję: Postrzegają AI jako bezpośredniego konkurenta w walce o uwagę odbiorców i dolary reklamowe.