La più grande compagnia musicale al mondo è entrata nel settore dell'IA. L'anno scorso, la Universal Music Group (UMG), insieme alla Warner Records e alla Sony Music Entertainment, ha citato in giudizio due startup musicali di IA per aver presumibilmente utilizzato le loro registrazioni per addestrare modelli di testo-musica senza autorizzazione.
Tuttavia, lo scorso mese la UMG ha annunciato una partnership con uno degli imputati, Udio, per sviluppare una piattaforma musicale di IA. Il loro comunicato stampa congiunto prometteva che l'etichetta avrebbe "fatto ciò che è giusto per gli artisti della UMG". Ma il gruppo di advocacy Music Artists Coalition ha risposto con scetticismo, affermando: "L'abbiamo già visto prima – tutti parlano di 'partnership', ma gli artisti finiscono con le briciole".
Questa causa è una delle dozzine nei tribunali statunitensi in cui artisti, editori e studi sostengono che l'utilizzo delle loro opere per l'addestramento dell'IA violi il copyright. I giudici stanno affrontando la questione di come applicare la legge sul copyright a una tecnologia che sfida i concetti tradizionali di paternità artistica. Per molti, questo rappresenta sia un problema legale che etico. Nel caso Andersen contro Stability AI – una delle prime cause collettive relative ai generatori di immagini IA – gli artisti sostengono che l'uso delle loro opere senza attribuzione, pagamento o consenso "viola i diritti di milioni di artisti".
Non c'è dubbio che i lavoratori creativi stiano soffrendo a causa del boom dell'IA, poiché l'IA generativa sostituisce il lavoro creativo umano. A gennaio 2024, oltre un terzo degli illustratori intervistati dalla Society of Authors ha riportato una perdita di reddito a causa dell'IA, e uno studio prevede un calo del 21% dei ricavi per i creatori audiovisivi entro il 2028.
In risposta, un nuovo movimento attivista ha unito dirigenti dell'intrattenimento e artisti contro l'industria tecnologica attraverso campagne sui social media, lobbying finanziato dal crowdfunding e cause legali. La Human Artistry Campaign, fondata sul principio che "l'IA non potrà mai sostituire l'espressione umana", riunisce creativi e dirigenti per sostenere leggi che proteggano gli artisti dall'IA e dai big tech. Tuttavia, alcuni artisti, creatori e gruppi per le libertà civili mettono in guardia da un'altra minaccia: le grandi compagnie di contenuti.
Cosa succede quando creativi ben intenzionati si alleano con i grandi conglomerati mediatici che storicamente hanno sfruttato il loro lavoro e ampliato il copyright contro l'interesse pubblico? Mentre alcuni artisti giustificano ciò come una strategia del "nemico del mio nemico", questo approccio fallisce se i big content e i big tech diventano alleati.
L'avvocato del copyright Dave Hansen dell'Authors Alliance sostiene che le cause per copyright non proteggeranno gli artisti dall'IA. Invece, porteranno a accordi di licenza esclusivi tra grandi aziende mediatiche e tecnologiche, escludendo tutti gli altri. La storia supporta questa visione cinica – quando è emerso lo streaming, etichette e studi hanno tratto profitto mentre musicisti, scrittori e attori sono stati lasciati indietro.
Le licenze IA saranno diverse? Quando Runway AI e Lionsgate hanno stipulato un accordo di licenza, l'amministratore delegato della United Talent Agency Jeremy Zimmer si è chiesto se gli artisti coinvolti nei film Lionsgate sarebbero stati compensati quando il loro lavoro addestra i modelli IA. In diversi accordi multimilionari tra editori e aziende IA, gli autori non hanno ricevuto né pagamenti né diritti di rinuncia.
Anche se i tribunali statunitensi richiedessero alle aziende tecnologiche di pagare per i dati di addestramento IA, è improbabile che gli artisti che lavorano ne traggano beneficio. Creare un sistema di licenze con gli attuali squilibri di potere potrebbe permettere alle compagnie mediatiche di fare pressione sugli artisti affinché cedano i diritti di addestramento come termini di impiego – cosa che i doppiatori hanno già affrontato. Anche il licenziamento obbligatorio non aiuterebbe necessariamente gli artisti. I requisiti di licenza stanno frenando i Big Tech. Mentri giganti come Google e OpenAI possono permettersi di pagare per le licenze dei dati, i piccoli sviluppatori di IA open-source non possono. Ironia della sorte, usare il copyright per sfidare i Big Tech ne rafforza solo il dominio.
Molte proposte che affermano di "proteggere gli artisti" non solo falliscono in questo obiettivo, ma rischiano di danneggiare sia gli artisti che il pubblico. Negli Stati Uniti, il NO FAKES Act – sostenuto dai principali gruppi dell'intrattenimento – mira a creare un diritto federale di "replica digitale" per controllare le copie IA non consensuali della voce o dell'aspetto di una persona. Tuttavia, organizzazioni per le libertà civili come il Center for Democracy and Technology e l'ACLU hanno sollevato preoccupazioni sulla formulazione vaga del disegno di legge, sulle insufficienti garanzie per la libertà di espressione e sul potenziale di abuso. La legge permetterebbe agli individui, inclusi i minori, di concedere in licenza i diritti della loro replica digitale per un massimo di un decennio (cinque anni per i minorenni). Non è difficile immaginare i dirigenti degli studi che fanno pressioni sugli artisti giovani per cedere il controllo sulla propria identità.
Perché queste soluzioni mancano il bersaglio? Perché molte cause per copyright, schemi di licenza e proposte sui diritti digitali sono cavalli di Troia per le grandi compagnie di contenuti. La Copyright Alliance, una potente organizzazione non profit che afferma di rappresentare la "comunità del copyright", spinge per regole severe sul copyright per l'IA generativa. Sebbene dichiari di sostenere i creatori individuali, il suo consiglio è pieno di dirigenti di titani dei media come Paramount, NBC Universal, Disney e Warner Bros.
Perché tutta questa costruzione pubblica di coalizioni quando l'industria dell'intrattenimento potrebbe semplicemente concludere accordi redditizi con le aziende tecnologiche a porte chiuse? Perché i Big Content dipendono dagli artisti. I loro imperi mediatici hanno bisogno del lavoro degli artisti per trarre profitto, i loro sforzi di lobbying richiedono il sostegno degli artisti per apparire credibili, e i loro nuovi partner IA hanno bisogno delle creazioni degli artisti.
Questa realtà evidenzia una strategia che preoccupa i dirigenti dell'intrattenimento più dell'IA: il lavoro organizzato. I professionisti creativi sindacalizzati, come quelli della Writers Guild e della SAG-AFTRA, hanno ottenuto protezioni sostanziali sull'IA attraverso scioperi e contrattazioni collettive. Il copyright è troppo datato, rigido e goffo per determinare il futuro di una forza lavoro creativa già vulnerabile. Se i Big Content volessero veramente proteggere gli artisti dall'IA, smetterebbero di provare a vendere le loro voci come dati di addestramento e inizierebbero ad ascoltare ciò che hanno da dire.
Alexander Avila è un video saggista, scrittore e ricercatore.
Domande Frequenti
Naturalmente. Ecco un elenco di FAQ sull'argomento: Le grandi compagnie mediatiche stanno sfidando l'IA, ma questa non è la storia di Davide contro Golia che ritraggono, ispirato dalla prospettiva di Alexander Avila.
Domande Generali / per Principianti
1. Di cosa parla quest'articolo/video?
Parla delle battaglie legali tra le grandi compagnie mediatiche e le aziende di IA. Sostiene che i colossi dei media si stanno dipingendo come i piccoli che combattono un Golia tecnologico, quando in realtà sono potenti corporation con i propri motivi.
2. Perché le compagnie mediatiche stanno facendo causa alle aziende di IA?
Le stanno citando in giudizio principalmente per violazione del copyright. Affermano che i modelli IA sono stati addestrati sui loro articoli, storie e altri contenuti senza autorizzazione o pagamento, cosa che sostengono essere illegale e svaluti il loro lavoro.
3. Cosa significa "questa non è la storia di Davide contro Golia"?
Significa che non dovremmo vederla come Davide contro Golia. Le compagnie mediatiche sono in realtà esse stesse corporazioni massive e influenti, e stanno usando questa narrativa per guadagnare simpatia pubblica e rafforzare la loro posizione legale e commerciale.
4. Cosa sono i dati di addestramento per l'IA?
I dati di addestramento per l'IA sono l'enorme quantità di testo, immagini e altre informazioni da cui un modello di IA impara. Per diventare competenti, i sistemi di IA come ChatGPT leggono miliardi di parole da libri, siti web e, sì, articoli di news prelevati da internet.
Domande Avanzate / Approfondite
5. Se i contenuti dei media sono disponibili pubblicamente, perché l'IA non può usarli per l'addestramento?
Questo è il centro del dibattito legale. Le compagnie mediatiche sostengono che rendere i contenuti disponibili pubblicamente non significhi che siano gratuiti da usare per profitto commerciale. Le aziende di IA spesso fanno affidamento sulla dottrina del fair use (uso equo), che consente un uso limitato di materiale protetto da copyright per scopi come ricerca e educazione, ma la sua applicazione all'addestramento dell'IA non è stata testata in tribunale.
6. Quali sono le vere motivazioni delle compagnie mediatiche, oltre al copyright?
Oltre a proteggere il copyright, le loro motivazioni includono probabilmente:
- Leva per Accordi di Licenza: Vogliono costringere le aziende di IA a pagarli per l'uso dei loro contenuti, creando una nuova fonte di reddito.
- Controllo del Mercato: Vogliono assicurarsi che i loro marchi rimangano fonti autorevoli di informazione e non vengano sostituiti dall'IA.
- Competizione: Vedono l'IA come un concorrente diretto per l'attenzione del pubblico e i dollari della pubblicità.