Grandes empresas de mídia estão desafiando a IA, mas esta não é a história de Davi contra Golias que elas retratam. | Alexander Avila

Grandes empresas de mídia estão desafiando a IA, mas esta não é a história de Davi contra Golias que elas retratam. | Alexander Avila

A maior empresa de música do mundo entrou no setor de IA. No ano passado, a Universal Music Group (UMG), junto com a Warner Records e a Sony Music Entertainment, processou duas startups de IA musical por alegadamente usar suas gravações para treinar modelos de texto para música sem permissão.

No entanto, no mês passado, a UMG anunciou uma parceria com um dos réus, Udio, para desenvolver uma plataforma de música com IA. O comunicado de imprensa conjunto prometeu que a gravadora "faria o que é certo pelos artistas da UMG". Mas o grupo de defesa Music Artists Coalition respondeu com ceticismo, afirmando: "Já vimos isso antes – todos falam em 'parceria', mas os artistas acabam com migalhas".

Este processo está entre dezenas nos tribunais dos EUA onde artistas, editoras e estúdios argumentam que o uso de seu trabalho para treinamento de IA viola os direitos autorais. Os juízes estão lutando com como aplicar a lei de direitos autorais a uma tecnologia que desafia os conceitos tradicionais de autoria. Para muitos, isso representa tanto uma questão legal quanto ética. No caso Andersen vs. Stability AI – um dos primeiros processos coletivos sobre geradores de imagens por IA – artistas alegam que o uso de seu trabalho sem crédito, pagamento ou consentimento "viola os direitos de milhões de artistas".

Não há dúvida de que os trabalhadores criativos estão sofrendo com o boom da IA, já que a IA generativa substitui o trabalho criativo humano. Em janeiro de 2024, mais de um terço dos ilustradores pesquisados pela Society of Authors relatou perda de renda devido à IA, e um estudo prevê um declínio de 21% na receita para criadores audiovisuais até 2028.

Em resposta, um novo movimento ativista uniu executivos do entretenimento e artistas contra a indústria de tecnologia por meio de campanhas nas redes sociais, lobby financiado por crowdfunding e processos judiciais. A Human Artistry Campaign, fundada no princípio de que "a IA nunca pode substituir a expressão humana", reúne criativos e executivos para apoiar legislações que protegem artistas da IA e do grande Vale do Silício. No entanto, alguns artistas, criadores e grupos de liberdades civis alertam para outra ameaça: as grandes empresas de conteúdo.

O que acontece quando criativos bem-intencionados se alinham com grandes conglomerados de mídia que historicamente exploraram seu trabalho e expandiram os direitos autorais contra o interesse público? Embora alguns artistas justifiquem isso como uma estratégia de "inimigo do meu inimigo", essa abordagem falha se o grande conteúdo e o grande Vale do Silício se tornarem aliados.

O advogado de direitos autorais Dave Hansen, da Authors Alliance, argumenta que processos de direitos autorais não protegerão os artistas da IA. Em vez disso, levarão a acordos de licenciamento exclusivos entre grandes empresas de mídia e tecnologia, deixando todos os outros de fora. A história apoia essa visão cínica – quando o streaming surgiu, as gravadoras e estúdios lucraram enquanto músicos, escritores e atores ficaram para trás.

O licenciamento de IA será diferente? Quando a Runway AI e a Lionsgate fizeram um acordo de licenciamento, o CEO da United Talent Agency, Jeremy Zimmer, questionou se os artistas envolvidos nos filmes da Lionsgate seriam compensados quando seu trabalho treinasse modelos de IA. Em vários acordos multimilionários entre editoras e empresas de IA, os autores não receberam pagamento nem direitos de opt-out.

Mesmo que os tribunais dos EUA exijam que as empresas de tecnologia paguem por dados de treinamento de IA, os artistas ativos provavelmente não se beneficiarão. Criar um sistema de licenciamento sob os desequilíbrios de poder atuais pode permitir que as empresas de mídia pressionem os artistas a ceder os direitos de treinamento como termos de emprego – algo que dubladores já enfrentaram. O licenciamento obrigatório também não necessariamente ajudaria os artistas.

Os requisitos de licenciamento estão contendo o Grande Vale do Silício. Enquanto gigantes como Google e OpenAI podem pagar por licenças de dados, pequenos desenvolvedores de IA de código aberto não podem. Ironicamente, usar direitos autorais para desafiar o Grande Vale do Silício apenas fortalece seu domínio.

Muitas propostas que alegam "proteger artistas" não apenas falham nesse objetivo, mas arriscam prejudicar tanto artistas quanto o público. Nos EUA, a Lei NO FAKES – apoiada por grandes grupos de entretenimento – visa criar um "direito federal de replicação digital" para controlar cópias de IA não consensuais da voz ou aparência de uma pessoa. No entanto, organizações de liberdades civis como o Center for Democracy and Technology e a ACLU alertaram sobre a redação vaga do projeto, proteções inadequadas de liberdade de expressão e potencial de uso indevido. A lei permitiria que indivíduos, incluindo crianças, licenciassem seus direitos de réplica digital por até uma década (cinco anos para menores). Não é difícil imaginar executivos de estúdio pressionando ansiosamente jovens artistas a ceder o controle sobre suas próprias identidades.

Por que essas soluções erram o alvo? Porque muitos processos de direitos autorais, esquemas de licenciamento e propostas de direitos digitais são cavalos de Troia para grandes empresas de conteúdo. A Copyright Alliance, uma organização sem fins lucrativos poderosa que afirma representar a "comunidade de direitos autorais", pressiona por regras rigorosas de direitos autorais sobre IA generativa. Embora afirme apoiar criadores individuais, seu conselho é repleto de executivos de titãs da mídia como Paramount, NBC Universal, Disney e Warner Bros.

Por que todo esse esforço público de construção de coalizões quando a indústria do entretenimento poderia simplesmente fechar acordos lucrativos com empresas de tecnologia nos bastidores? Porque o Grande Conteúdo depende dos artistas. Seus impérios de mídia precisam do trabalho dos artistas para lucrar, seus esforços de lobby exigem o apoio dos artistas para parecerem críveis, e seus novos parceiros de IA precisam das criações dos artistas.

Essa realidade destaca uma estratégia que preocupa mais os executivos do entretenimento do que a IA: o trabalho organizado. Profissionais criativos sindicalizados, como os do Writers Guild e SAG-AFTRA, conquistaram proteções substanciais contra a IA por meio de greves e negociação coletiva. Os direitos autorais são muito ultrapassados, rígidos e desajeitados para determinar o futuro de uma força de trabalho criativa já vulnerável. Se o Grande Conteúdo realmente quisesse proteger os artistas da IA, pararia de tentar vender suas vozes como dados de treinamento e começaria a ouvir o que eles têm a dizer.

Alexander Avila é videoensaísta, escritor e pesquisador.

Perguntas Frequentes
Claro! Aqui está uma lista de Perguntas Frequentes sobre o tema: Grandes empresas de mídia estão desafiando a IA, mas esta não é a história de underdog que elas retratam, inspirada pela perspectiva de Alexander Avila.

**Perguntas Gerais / Para Iniciantes**

1. **Sobre o que é este artigo/vídeo?**
Trata-se das batalhas legais entre grandes empresas de mídia e empresas de IA. Ele argumenta que os gigantes da mídia estão se posicionando como os pequenos lutando contra um Golias tecnológico, quando na realidade são corporações poderosas com seus próprios motivos.

2. **Por que as empresas de mídia estão processando as empresas de IA?**
Elas estão processando principalmente por violação de direitos autorais. Alegam que os modelos de IA foram treinados com seus artigos, histórias e outros conteúdos sem permissão ou pagamento, o que consideram ilegal e desvaloriza seu trabalho.

3. **O que significa "esta não é a história de underdog"?**
Significa que não devemos ver isso como Davi contra Golias. As empresas de mídia são, na verdade, corporações massivas e influentes por si só, e estão usando essa narrativa para ganhar simpatia pública e fortalecer sua posição legal e comercial.

4. **O que são dados de treinamento de IA?**
Dados de treinamento de IA são a enorme quantidade de texto, imagens e outras informações a partir das quais um modelo de IA aprende. Para se tornarem conhecedoras, sistemas de IA como o ChatGPT leem bilhões de palavras de livros, sites e, sim, artigos de notícias extraídos da internet.

**Perguntas Avançadas / Aprofundadas**

5. **Se o conteúdo da mídia está publicamente disponível, por que a IA não pode usá-lo para treinamento?**
Este é o cerne do debate legal. As empresas de mídia argumentam que disponibilizar conteúdo publicamente não significa que ele seja gratuito para uso com lucro comercial. As empresas de IA frequentemente se baseiam na doutrina do "uso justo" (fair use), que permite o uso limitado de material protegido por direitos autorais para fins como pesquisa e educação, mas sua aplicação ao treinamento de IA não foi testada em tribunal.

6. **Quais são os motivos reais das empresas de mídia, além dos direitos autorais?**
Além de proteger os direitos autorais, seus motivos provavelmente incluem:
- **Alavancagem para Acordos de Licenciamento:** Querem forçar as empresas de IA a pagar pelo uso de seu conteúdo, criando uma nova fonte de receita.
- **Controle de Mercado:** Querem garantir que suas marcas permaneçam fontes autorizadas de informação e não sejam substituídas pela IA.
- **Concorrência:** Veem a IA como um concorrente direto pela atenção do público e por dólares de publicidade.