La faida tra Elon Musk e Sam Altman è una distrazione. — Karen Hao

La faida tra Elon Musk e Sam Altman è una distrazione. — Karen Hao

Se prima non era chiaro, Elon Musk e Sam Altman non si sopportano. Un tempo erano co-fondatori di OpenAI, ma ora sono intrappolati in un'aspra faida che si sta svolgendo in modo drammatico in un'aula di tribunale della California. Musk sta facendo causa, sostenendo che Altman e il presidente di OpenAI Greg Brockman lo hanno ingannato per avviare e finanziare l'organizzazione come non-profit, solo per poi ristrutturarla includendo un ramo a scopo di lucro. OpenAI sostiene che Musk fosse a conoscenza di quei piani fin dall'inizio e afferma che la causa è solo un tentativo di danneggiare un concorrente.

Conosco bene questa storia. Seguo OpenAI dal 2019, e ho persino trascorso tre giorni nel loro ufficio poco dopo che Musk se ne andò e Altman divenne CEO. Se c'è una cosa che ho imparato seguendo questa azienda e l'industria dell'IA, è che questo mondo genera rivalità intense.

Non è una coincidenza che quasi tutti i fondatori originali di OpenAI se ne siano andati in cattivi rapporti, o che ogni miliardario della tecnologia sembri avere un'azienda di IA quasi identica. La frenetica corsa all'IA è legata agli ego meschini e in conflitto degli ultra-ricchi, tutti determinati a superarsi a vicenda.

Se Musk vincesse la sua causa, potrebbe essere devastante per OpenAI, specialmente mentre si prepara per una possibile offerta pubblica iniziale quest'anno. Musk chiede 150 miliardi di dollari di danni dall'azienda e da uno dei suoi principali investitori, Microsoft. Vuole anche trasformare OpenAI di nuovo in una non-profit, rimuovere Altman e Brockman dalla guida del ramo a scopo di lucro, e cacciare Altman dal consiglio della non-profit.

Ma pensare che il futuro dello sviluppo dell'IA sarà deciso da una gara di personalità perde di vista il quadro generale. Sì, le voci del diario di Brockman sono rivelatrici, e la testimonianza dell'ex CTO di OpenAI Mira Murati su Altman che mette i dirigenti l'uno contro l'altro conferma ciò che ho riportato in precedenza. Ma concentrarsi sul fatto che Altman sia inaffidabile, o che Musk sia persino peggio, distoglie l'attenzione da un problema molto più profondo.

Se OpenAI perdesse il suo posto come leader dell'industria dell'IA, un altro concorrente appena diverso—come xAI di Musk o qualcun altro—ne prenderebbe semplicemente il posto. Questo include aziende come Anthropic, che ha una reputazione migliore ma fa ancora molte delle stesse cose: affrettare le decisioni per la velocità, ignorare la proprietà intellettuale, e costruire aggressivamente sistemi informatici massicci che danneggiano le comunità.

Niente di questo processo o della struttura finanziaria di OpenAI cambierà la spinta di queste aziende a raccogliere più dati e denaro, rimodellare il pianeta, esaurire e sostituire i lavoratori, e radicarsi profondamente nei governi per ottenere potere sui sistemi di controllo. Vivremmo ancora in un mondo dove una manciata di persone ha l'immenso potere di plasmarlo a propria immagine e dettare come vivono miliardi di persone.

Nonostante ciò che la Silicon Valley vuole farvi credere, l'IA non deve portare al dominio, e ampi benefici dalla tecnologia non possono venire da una tale base. Prima che l'industria si spostasse duramente verso la costruzione di modelli di IA estremamente dispendiosi in termini di risorse, molti altri tipi di IA prosperavano: sistemi piccoli e specializzati per rilevare il cancro, rivitalizzare lingue in via di estinzione, prevedere eventi meteorologici estremi, e accelerare la scoperta di farmaci. C'erano anche idee per nuove tecnologie di IA che non avevano bisogno di molti dati, o che potevano funzionare su dispositivi mobili invece che su supercomputer massicci.

Anche ora, con i grandi modelli linguistici, molte ricerche ed esempi—come DeepSeek—mostrano che metodi diversi possono ottenere gli stessi risultati usando una frazione minuscola della scala che le aziende di IA usano per giustificare le loro ambizioni di consumo planetario. Come ha detto Sara Hooker, ex vicepresidente della ricerca di Google, "La scalabilità è una formula economica per ottenere più prestazioni, ma è anche una formula altamente imprecisa." Un architetto dell'azienda canadese di IA Cohere una volta mi ha detto: "Ci piace così tanto perché si adatta perfettamente a cicli di pianificazione prevedibili. È più facile dire 'getta più potenza di calcolo sul problema' che inventare un nuovo metodo."

Ma questi molti percorsi stanno appassendo all'ombra dei grandi attori. Nel primo trimestre dell'anno scorso, quasi la metà di tutto il capitale di rischio è andato a solo due aziende: OpenAI e Anthropic. Questa è solo la punta di un iceberg di una tendenza pluriennale di consolidamento del capitale che ha prosciugato il mondo accademico e affamato la ricerca che va contro—o semplicemente non si adatta—all'agenda aziendale. Secondo uno studio dei ricercatori del MIT pubblicato su Science, la percentuale di dottorati in IA che hanno scelto di lavorare nell'industria è passata dal 21% al 70% tra il 2004 e il 2020. E non è solo la diversità nello sviluppo dell'IA a soffrire. Nel 2024, i finanziamenti per la tecnologia climatica sono diminuiti del 40%, poiché gli investitori hanno reindirizzato i loro fondi in parte verso la scalabilità brute-force degli imperi dell'IA.

Non deve essere per forza così. Nell'ultimo anno, mentre ho viaggiato in dozzine di città negli Stati Uniti e in tutto il mondo, ho visto questa consapevolezza prendere piede. Le persone ovunque stanno abbracciando la causa della resistenza collettiva. Gli esempi più visibili e vibranti sono le proteste contro i data center che spuntano in comunità attraverso diverse regioni e divisioni politiche. In New Mexico, ho incontrato residenti desiderosi di informarsi sull'industria dell'IA durante cene in comune, chiedendo trasparenza e responsabilità per progetti locali—come un massiccio campus di supercalcolo di OpenAI da miliardi di dollari proposto per lo stato come parte del dispiegamento dell'infrastruttura informatica Stargate da 500 miliardi di dollari dell'azienda.

Per quanto la Silicon Valley voglia farvi credere, l'IA non deve significare conquista imperiale, né ampi benefici dalla tecnologia possono mai venire da una tale base.

A un raduno a New York, ho ascoltato KeShaun Pearson, un leader nella lotta a Memphis, Tennessee, contro i supercomputer Colossus di Musk. Ha dato un commovente promemoria del costo che le dozzine di turbine a gas metano della struttura stavano avendo sulla sua comunità. "Fate due respiri profondi," ha detto al pubblico. "Questo è un diritto umano" che veniva loro tolto. A partire da questo mese, Anthropic sta usando Colossus.

Allo stesso evento, Kitana Ananda, un'altra leader comunitaria di Tucson, Arizona, che si sta mobilitando contro Project Blue—una struttura di IA hyperscale di Amazon—ha descritto la sensazione profonda che lei e i suoi vicini condividevano: che stavano combattendo non solo per la propria comunità, ma per ogni comunità schiacciata dall'industria dell'IA. In un giorno di 114°F, mentre si stipavano nel municipio in una dimostrazione di forza e guardavano il consiglio votare 7-0 per sospendere il progetto nella sua forma attuale, hanno esultato e pianto di gioia, sapendo che la loro vittoria era la vittoria di ogni comunità.

I lavoratori stanno anche scioperando in tutti i settori e paesi. Nel nord della California, più di 2.000 professionisti sanitari di Kaiser Permanente hanno scioperato per la minaccia che l'IA venga usata per automatizzare il loro lavoro o danneggiare i risultati dei pazienti. In Kenya, lavoratori dei dati e moderatori di contenuti assunti da aziende di IA per addestrare e pulire i loro modelli si stanno organizzando per attirare l'attenzione internazionale sul loro sfruttamento e chiedere migliori condizioni di lavoro.

In più di 30 paesi, lavoratori culturali—da doppiatori a sceneggiatori a illustratori manga—si stanno mobilitando per parlare contro problemi come l'uso del loro lavoro per l'addestramento, il furto della loro immagine da parte dei sistemi di IA, o la loro sostituzione, secondo il database Worker Mobilizations around AI, un progetto di ricerca guidato dal gruppo Creative Labour & Critical Futures dell'Università di Toronto.

Dimenticate l'apocalisse dei posti di lavoro nell'IA. La vera minaccia dell'IA è il controllo e la sorveglianza dei lavoratori.

Educatori e studenti stanno facendo pressione sulle loro istituzioni. Le vittime e le loro famiglie stanno intentando cause. Gli stessi dipendenti tecnologici stanno facendo campagne. Le chat di gruppo per organizzarsi sono ovunque. Le persone marciano.

Questa crescente ondata di opposizione collettiva sembra stia costringendo l'industria dell'IA a ridimensionare le sue ambizioni. Già, nel 2025, progetti infrastrutturali per un valore di 150 miliardi di dollari sono stati bloccati o fermati, secondo Data Center Watch, un progetto che traccia l'opposizione guidato dalla società di ricerca sull'IA 10a Labs. Gli investitori stanno prendendo nota e cominciando a ridurre le loro aspettative su quanto le aziende di IA possano effettivamente mantenere le loro promesse.

OpenAI ha chiuso la sua app di generazione video Sora, che i dirigenti dell'azienda una volta hanno elogiato come uno dei loro prodotti più importanti e una nuova frontiera nello sviluppo dell'IA. Come riportato dal Wall Street Journal, la chiusura di Sora è stata alla fine guidata da diversi fattori interconnessi plasmati dall'azione di base: calo dell'utilizzo, percezione pubblica negativa, finanze più ristrette e severi limiti alle risorse informatiche.

Ecco il punto sugli imperi. Non cercano solo di consumare tutto—dipendono da questo per sopravvivere. In altre parole, ciò che sembra dare loro un'immensa forza è in realtà la loro più grande debolezza. Quando anche una piccola parte delle risorse di cui hanno bisogno viene tagliata, i giganti cominciano a inciampare. Quindi, se vi state chiedendo cosa terrà veramente responsabile l'industria dell'IA e offrirà un percorso diverso per lo sviluppo della tecnologia, guardate oltre le liti tra miliardari. Il vero lavoro sta accadendo ovunque altro.

Karen Hao è l'autrice di Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI.

Domande Frequenti
Ecco un elenco di domande frequenti basate sull'articolo La faida tra Elon Musk e Sam Altman è una distrazione di Karen Hao



Domande di Livello Base



1 Di cosa parla questo articolo

Parla della lotta pubblica tra Elon Musk e Sam Altman per il controllo di OpenAI L'autrice sostiene che questo dramma personale sia in realtà una distrazione da problemi più grandi e importanti nell'IA



2 Chi sono Elon Musk e Sam Altman

Sono entrambi leader tecnologici molto famosi Elon Musk è il CEO di Tesla e SpaceX Sam Altman è il CEO di OpenAI l'azienda che ha creato ChatGPT Erano co-fondatori di OpenAI insieme ma hanno avuto un litigio



3 Di cosa tratta la faida

La faida riguarda principalmente soldi e controllo Musk ha fatto causa a OpenAI sostenendo che ha infranto la sua promessa originale di essere una non-profit per il bene dell'umanità Altman dice che Musk vuole solo rallentare il successo di OpenAI perché ha la sua azienda di IA concorrente



4 Perché l'autrice dice che è una distrazione

L'autrice Karen Hao crede che mentre guardiamo tutti il dramma personale tra due miliardari ignoriamo domande più critiche Queste includono chi beneficia veramente dell'IA come influenzerà i lavori e quali regole dovrebbero governarla



5 A cosa dovremmo invece prestare attenzione

Invece della soap opera Musk vs Altman dovremmo prestare attenzione all'impatto reale dell'IA sulle persone comuni—cose come l'automazione dei lavori i pregiudizi negli algoritmi la privacy e la concentrazione del potere in poche grandi aziende tecnologiche



Domande di Livello Avanzato



6 Qual è l'argomento centrale dell'articolo di Karen Hao

L'argomento centrale è che la battaglia legale e personale di alto profilo tra Musk e Altman funge da cortina fumogena Trasforma un complesso dibattito di politica pubblica sulla sicurezza e l'etica dell'IA in una semplice storia di gossip sulle celebrità il che avvantaggia i giganti della tecnologia mantenendo il pubblico concentrato sulle personalità piuttosto che sulla regolamentazione



7 Come distrae specificamente la faida dalla sicurezza dell'IA

La faida inquadra la sicurezza dell'IA come una disputa personale Questo semplifica eccessivamente il problema Impedisce una seria conversazione pubblica sulle misure di sicurezza tecniche la responsabilità aziendale e la necessità di una supervisione democratica dei potenti sistemi di IA