A rivalidade entre Elon Musk e Sam Altman é uma distração. — Karen Hao

A rivalidade entre Elon Musk e Sam Altman é uma distração. — Karen Hao

Se não estava claro antes, Elon Musk e Sam Altman não se suportam. Os dois foram cofundadores da OpenAI, mas agora estão envolvidos em uma rivalidade amarga, que se desenrola dramaticamente em um tribunal da Califórnia. Musk está processando, alegando que Altman e o presidente da OpenAI, Greg Brockman, o enganaram para iniciar e financiar a organização como uma entidade sem fins lucrativos, apenas para depois reestruturá-la para incluir um braço com fins lucrativos. A OpenAI argumenta que Musk sabia desses planos o tempo todo e diz que o processo é apenas uma tentativa de prejudicar um concorrente.

Conheço bem essa história. Cubro a OpenAI desde 2019, e até passei três dias dentro do escritório deles pouco depois de Musk sair e Altman se tornar CEO. Se há uma coisa que aprendi acompanhando essa empresa e a indústria de IA, é que esse mundo gera rivalidades intensas.

Não é coincidência que quase todos os fundadores originais da OpenAI saíram em termos ruins, ou que todo bilionário da tecnologia parece ter uma empresa de IA quase idêntica. A corrida frenética pela IA está ligada aos egos mesquinhos e conflitantes dos ultra-ricos, todos determinados a superar uns aos outros.

Se Musk vencer seu caso, pode ser devastador para a OpenAI, especialmente enquanto ela se prepara para uma possível oferta pública inicial este ano. Musk está pedindo US$ 150 bilhões em danos da empresa e de um de seus principais investidores, a Microsoft. Ele também quer transformar a OpenAI de volta em uma organização sem fins lucrativos, remover Altman e Brockman da liderança do lado com fins lucrativos, e expulsar Altman do conselho sem fins lucrativos.

Mas pensar que o futuro do desenvolvimento da IA será decidido por um concurso de personalidades perde o panorama geral. Sim, as entradas do diário de Brockman são reveladoras, e o depoimento da ex-CTO da OpenAI, Mira Murati, sobre Altman colocar executivos uns contra os outros confirma o que já reportei antes. Mas focar em se Altman não é confiável, ou se Musk é ainda pior, distrai de uma questão muito mais profunda.

Se a OpenAI perdesse seu lugar como líder da indústria de IA, outro concorrente quase idêntico — como a xAI de Musk ou outra empresa — simplesmente tomaria seu lugar. Isso inclui empresas como a Anthropic, que tem uma reputação melhor, mas ainda faz muitas das mesmas coisas: apressar decisões por velocidade, ignorar propriedade intelectual e construir agressivamente sistemas de computação massivos que prejudicam comunidades.

Nada neste julgamento ou na configuração financeira da OpenAI mudará o impulso dessas empresas para coletar mais dados e dinheiro, remodelar o planeta, exaurir e substituir trabalhadores, e se inserir profundamente nos governos para ganhar poder sobre sistemas de controle. Ainda viveríamos em um mundo onde uma minúscula minoria tem o imenso poder de moldá-lo à sua imagem e ditar como bilhões de pessoas vivem.

Apesar do que o Vale do Silício quer que você acredite, a IA não precisa levar à dominação, e benefícios amplos da tecnologia não podem vir de tal fundamento. Antes da indústria se inclinar fortemente para a construção de modelos de IA extremamente intensivos em recursos, muitos outros tipos de IA prosperavam: sistemas pequenos e especializados para detectar câncer, reviver línguas ameaçadas, prever clima extremo e acelerar a descoberta de medicamentos. Havia também ideias para novas tecnologias de IA que não precisavam de muitos dados, ou que podiam rodar em dispositivos móveis em vez de supercomputadores massivos.

Mesmo agora, com grandes modelos de linguagem, muitas pesquisas e exemplos — como o DeepSeek — mostram que métodos diferentes podem alcançar os mesmos resultados usando uma fração minúscula da escala que as empresas de IA usam para justificar suas ambições de consumir o planeta. Como Sara Hooker, ex-vice-presidente de pesquisa do Google, disse: "Escalar é uma fórmula barata para obter mais desempenho, mas também é uma fórmula altamente imprecisa." Um arquiteto da empresa canadense de IA Cohere me disse uma vez: "Amamos tanto porque se encaixa perfeitamente em ciclos de planejamento previsíveis. É mais fácil dizer 'jogue mais poder computacional no problema' do que criar um novo método."

Mas esses muitos caminhos estão murchando na sombra dos grandes players. No primeiro trimestre do ano passado, quase metade de todo o capital de risco foi para apenas duas empresas: OpenAI e Anthropic. Isso é apenas a ponta de uma tendência de anos de consolidação de capital que drenou a academia e sufocou pesquisas que vão contra — ou simplesmente não se encaixam — na agenda corporativa. De acordo com um estudo de pesquisadores do MIT publicado na Science, a parcela de doutores em IA que escolheram trabalhar na indústria saltou de 21% para 70% entre 2004 e 2020. E não é apenas a diversidade no desenvolvimento de IA que está sofrendo. Em 2024, o financiamento para tecnologia climática caiu 40%, à medida que investidores redirecionaram seu dinheiro em parte para a escalada bruta dos impérios de IA.

Não precisa ser assim. No ano passado, enquanto viajei para dezenas de cidades nos EUA e ao redor do mundo, vi essa percepção se consolidar. Pessoas em todos os lugares estão abraçando a causa da resistência coletiva. Os exemplos mais visíveis e vibrantes são os protestos contra data centers que surgem em comunidades através de diferentes regiões e divisões políticas. No Novo México, conheci moradores ansiosos para se educar sobre a indústria de IA em jantares comunitários, exigindo transparência e responsabilidade por projetos locais — como um campus massivo de supercomputação da OpenAI proposto para o estado como parte da construção da infraestrutura de computação Stargate de US$ 500 bilhões da empresa.

Por mais que o Vale do Silício queira que você acredite, IA não precisa significar conquista imperial, nem benefícios amplos da tecnologia podem jamais vir de tal fundamento.

Em uma reunião em Nova York, ouvi KeShaun Pearson, um líder na luta em Memphis, Tennessee, contra os supercomputadores Colossus de Musk. Ele fez um lembrete sincero do custo que as dezenas de turbinas a gás metano da instalação estavam causando à sua comunidade. "Respirem fundo duas vezes", disse ele ao público. "Isso é um direito humano" que estava sendo tirado deles. A partir deste mês, a Anthropic está usando o Colossus.

No mesmo evento, Kitana Ananda, outra líder comunitária de Tucson, Arizona, que está se mobilizando contra o Project Blue — uma instalação de IA hyperscale da Amazon — descreveu o sentimento profundo que ela e seus vizinhos compartilhavam: que estavam lutando não apenas por sua própria comunidade, mas por todas as comunidades sendo atropeladas pela indústria de IA. Em um dia de 45°C, enquanto se amontoavam na prefeitura em uma demonstração de força e viam o conselho votar 7-0 para pausar o projeto em sua forma atual, eles comemoraram e choraram de alegria, sabendo que sua vitória era a vitória de todas as comunidades.

Trabalhadores também estão fazendo greves em todos os setores e países. No norte da Califórnia, mais de 2.000 profissionais de saúde da Kaiser Permanente paralisaram devido à ameaça da IA ser usada para automatizar seu trabalho ou prejudicar os resultados dos pacientes. No Quênia, trabalhadores de dados e moderadores de conteúdo contratados por empresas de IA para treinar e limpar seus modelos estão se organizando para atrair atenção internacional para sua exploração e exigir melhores condições de trabalho.

Em mais de 30 países, trabalhadores culturais — de dubladores a roteiristas e ilustradores de mangá — estão se mobilizando para se manifestar contra questões como ter seu trabalho usado para treinamento, ter sua imagem roubada por sistemas de IA, ou ser substituídos por eles, de acordo com o banco de dados Worker Mobilizations around AI, um projeto de pesquisa liderado pelo grupo Creative Labour & Critical Futures da Universidade de Toronto.

Esqueça o apocalipse de empregos da IA. A verdadeira ameaça da IA é o controle e a vigilância dos trabalhadores.

Educadores e estudantes estão pressionando suas instituições. Vítimas e suas famílias estão entrando com processos. Os próprios funcionários de tecnologia estão fazendo campanhas. Grupos de chat para organização estão por toda parte. As pessoas estão marchando.

Esta onda crescente de resistência coletiva parece estar forçando a indústria de IA a reduzir suas ambições. Já em 2025, projetos de infraestrutura no valor de US$ 150 bilhões foram bloqueados ou paralisados, de acordo com o Data Center Watch, um projeto que rastreia a oposição liderado pela empresa de pesquisa em IA 10a Labs. Os investidores estão percebendo e começando a reduzir suas expectativas sobre o quanto as empresas de IA podem realmente cumprir suas promessas.

A OpenAI fechou seu aplicativo de geração de vídeo Sora, que executivos da empresa uma vez elogiaram como um de seus produtos mais importantes e uma nova fronteira no desenvolvimento de IA. Como o Wall Street Journal reportou, o fechamento do Sora foi impulsionado por vários fatores interconectados moldados pela ação de base: uso em declínio, percepção pública negativa, finanças mais apertadas e limites severos nos recursos computacionais.

Aqui está a questão sobre impérios. Eles não apenas tentam consumir tudo — eles dependem disso para sobreviver. Em outras palavras, o que parece dar a eles imensa força é na verdade sua maior fraqueza. Quando mesmo uma pequena parte dos recursos de que precisam é cortada, os gigantes começam a tropeçar. Então, se você está se perguntando o que realmente responsabilizará a indústria de IA e oferecerá um caminho diferente para o desenvolvimento da tecnologia, olhe além das brigas de bilionários. O trabalho real está acontecendo em todos os outros lugares.

Karen Hao é a autora de Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI.

Perguntas Frequentes
Aqui está uma lista de perguntas frequentes baseadas no artigo A briga entre Elon Musk e Sam Altman é uma distração, de Karen Hao



Perguntas de Nível Iniciante



1 Sobre o que é este artigo

É sobre a briga pública entre Elon Musk e Sam Altman pelo controle da OpenAI. A autora argumenta que esse drama pessoal é na verdade uma distração de questões maiores e mais importantes na IA.



2 Quem são Elon Musk e Sam Altman

Ambos são líderes de tecnologia muito famosos. Elon Musk é o CEO da Tesla e SpaceX. Sam Altman é o CEO da OpenAI, a empresa que criou o ChatGPT. Eles foram cofundadores da OpenAI juntos, mas tiveram um desentendimento.



3 Sobre o que é a briga

A briga é principalmente sobre dinheiro e controle. Musk processou a OpenAI, alegando que ela quebrou sua promessa original de ser uma organização sem fins lucrativos para o bem da humanidade. Altman diz que Musk só quer desacelerar o sucesso da OpenAI porque tem sua própria empresa de IA concorrente.



4 Por que a autora diz que é uma distração

A autora Karen Hao acredita que, enquanto todos estamos assistindo ao drama pessoal entre dois bilionários, estamos ignorando questões mais críticas. Estas incluem quem realmente se beneficia da IA, como ela afetará os empregos e quais regras devem governá-la.



5 No que devemos prestar atenção em vez disso

Em vez da novela Musk vs Altman, devemos prestar atenção ao impacto real da IA nas pessoas comuns — coisas como automação de empregos, viés em algoritmos, privacidade e a concentração de poder em algumas grandes empresas de tecnologia.



Perguntas de Nível Avançado



6 Qual é o argumento central do artigo de Karen Hao

O argumento central é que a batalha legal e pessoal de alto perfil entre Musk e Altman serve como uma cortina de fumaça. Ela transforma um debate complexo de política pública sobre segurança e ética da IA em uma simples história de fofoca de celebridades, o que beneficia os gigantes da tecnologia ao manter o público focado em personalidades em vez de regulamentação.



7 Como a briga especificamente distrai da segurança da IA

A briga enquadra a segurança da IA como uma disputa pessoal. Isso simplifica demais o problema. Impede uma conversa pública séria sobre medidas técnicas de segurança, responsabilidade corporativa e a necessidade de supervisão democrática de sistemas de IA poderosos.