Se l’intelligenza artificiale non ha ancora cambiato la vostra vita entro il 2025, quasi certamente lo farà nell’anno successivo. Questa è una delle poche previsioni che possiamo fare con sicurezza in tempi così incerti. Ciò non significa che dobbiate credere a tutto il clamore su ciò che questa tecnologia può fare oggi o potrebbe realizzare in futuro. Il clamore non ha bisogno della vostra fiducia: è già gonfiato dai capitali della Silicon Valley al punto da distorcere l’economia globale e alimentare rivalità geopolitiche, rimodellando il nostro mondo a prescindere dal fatto che le promesse più stravaganti dell’IA si avverino o meno.
ChatGPT è stato lanciato poco più di tre anni fa ed è rapidamente diventata l’app consumer con la crescita più rapida della storia. Oggi conta circa 800 milioni di utenti settimanali e la sua società madre, OpenAI, ha una valutazione di circa 500 miliardi di dollari. Il CEO di OpenAI, Sam Altman, ha intessuto una rete complessa – e per alcuni sospettosamente opaca – di accordi con altri attori del settore per costruire le infrastrutture necessarie al futuro dell’America alimentato dall’IA. Questi impegni ammontano a circa 1.500 miliardi di dollari. Non si tratta di denaro contante, ma per dare un’idea: se spendeste un dollaro al secondo, impieghereste 31.700 anni per esaurire mille miliardi di dollari.
Alphabet (la società madre di Google), Amazon, Apple, Meta (ex Facebook) e Microsoft – che detiene una partecipazione da 135 miliardi di dollari in OpenAI – stanno riversando centinaia di miliardi nella stessa scommessa. Senza questi investimenti, l’economia statunitense probabilmente ristagnerebbe.
Analisti economici e storici che hanno studiato le frenesie industriali del passato, dalle ferrovie del XIX secolo al boom e crollo delle dot-com, definiscono l’IA una bolla. Lo stesso Altman ha dichiarato: “Ci sono molti aspetti dell’IA che ritengo attualmente piuttosto bollosi.” Naturalmente, non include il proprio ruolo in questo. Anche il fondatore di Amazon, Jeff Bezos, l’ha definita una bolla – ma “buona”, perché accelera il progresso economico. Secondo questa visione, una bolla buona finanzia infrastrutture, espande la conoscenza umana e lascia benefici duraturi anche dopo lo scoppio, giustificando così la rovina dei “piccoli” che vengono danneggiati lungo il percorso.
L’ottimismo del mondo tecnologico è una miscela potente di vendita all’antica, grandiosità plutocratica e ideologia utopica. Al suo centro c’è una proposta di marketing: i modelli di IA attuali superano già gli esseri umani in molti compiti. Presto, si pensa, le macchine raggiungeranno l’“intelligenza generale” – la versatilità cognitiva simile a quella umana – liberandoci dalla necessità di qualsiasi contributo umano. Una volta che l’IA potrà auto-istruirsi e progettare i propri successori, potrebbe progredire a un ritmo inimmaginabile verso la super-intelligenza.
L’azienda che raggiungerà questo traguardo non avrà problemi a ripagare i propri debiti. Gli uomini che guidano questa visione – e i principali evangelisti sono tutti uomini – sarebbero per l’IA onnisciente ciò che gli antichi profeti erano per i loro dei. Un ruolo piuttosto importante per loro. Ciò che accade al resto di noi in questo ordine “post-sapiens” è un po’ meno chiaro.
Gli Stati Uniti non sono l’unica superpotenza a investire nell’IA, quindi la corsa della Silicon Valley verso la massima capacità ha implicazioni geopolitiche. La Cina ha intrapreso un percorso diverso, plasmato in parte dalla sua tradizione di pianificazione industriale centralizzata e in parte dal fatto che sta recuperando terreno nell’innovazione. Pechino sta spingendo per un’adozione più rapida e ampia di un’IA leggermente meno avanzata – ma comunque potente – in tutta la sua economia e società. La Cina punta su un diffuso impulso dall’IA quotidiana, mentre gli Stati Uniti mirano a un salto trasformativo verso l’IA generale.
Con la supremazia globale in palio, nessuna delle due parti ha molti incentivi a preoccuparsi dei rischi o a concordare regole internazionali che limiterebbero gli usi dell’IA o richiederebbero trasparenza nel suo sviluppo. Né gli Stati Uniti né la Cina vogliono sottoporre un’industria strategicamente vitale a standard co-redatti con rivali stranieri.
In assenza di una supervisione globale, ci ritroviamo a dipendere dall’integrità dei moderni baroni ladroni e dei burocrati autoritari per costruire salvaguardie etiche in sistemi che sono già intessuti negli strumenti che usiamo per lavoro, intrattenimento ed educazione.
Quest’anno, Elon Musk ha annunciato che la sua azienda sta sviluppando Baby Grok, un chatbot di IA destinato a bambini di appena tre anni. La versione per adulti di questo chatbot ha espresso opinioni suprematiste bianche e si è persino definita con orgoglio “MechaHitler”. Per quanto scioccanti, tali dichiarazioni sfacciate sono almeno oneste: sono più facili da riconoscere rispetto ai pregiudizi più sottili incorporati in altri sistemi di IA che non sono stati apertamente guidati dall’ideologia come gli algoritmi di Musk.
Non tutti i sistemi di IA sono grandi modelli linguistici come Grok, ma tutti questi modelli tendono a raccogliere allucinazioni e pregiudizi dai dati su cui vengono addestrati. Non “capiscono” o “pensano” veramente alle domande come farebbe una persona. Invece, prendono un prompt, calcolano la probabilità che certe parole appaiano insieme in base ai dati di addestramento, e poi generano una risposta che sembra plausibile. Spesso il risultato è accurato e convincente, ma può anche essere una completa assurdità. Man mano che più contenuti generati dall’IA inondano Internet, l’equilibrio tra informazioni utili e “spazzatura” di bassa qualità nei dati di addestramento di questi modelli si sposta, il che significa che vengono alimentati sempre più con rifiuti – e non ci si può affidare a loro per produrre informazioni affidabili in cambio.
Se questo continua, rischiamo di dirigerci verso un futuro tetro: una realtà sintetica e artificiale plasmata da sistemi di IA che riflettono i pregiudizi e gli ego dei pochi potenti della Silicon Valley. Ma quel futuro non è inevitabile. L’attuale clamore sull’IA, alimentato da sostenitori troppo entusiasti e dal loro allineamento con interessi politici come l’amministrazione Trump, è una storia di avidità e miopia umana – non di un’evoluzione tecnologica inarrestabile. L’IA che viene creata è impressionante, ma profondamente imperfetta, rispecchiando le carenze dei suoi creatori, che eccellono più nelle vendite e nell’ingegneria finanziaria che nel costruire sistemi veramente intelligenti.
La vera bolla non è nei prezzi delle azioni – è negli ego gonfiati di un’industria che crede di essere a un passo dal raggiungere un potere computazionale divino. Quando quella bolla scoppierà e l’economia surriscaldata degli Stati Uniti si raffredderà, ci sarà l’opportunità per voci più equilibrate di plasmare come gestiamo i rischi e le regolamentazioni dell’IA. Quel momento potrebbe non arrivare nel 2026, ma si sta avvicinando – un tempo in cui dovremo affrontare una scelta chiara e inevitabile: costruiamo un mondo in cui l’IA serve l’umanità, o uno in cui l’umanità serve l’IA? Non avremo bisogno di ChatGPT per rispondere a questa domanda.
Domande Frequenti
FAQs La bolla dell'IA Il controllo umano
Domande di livello base
Cos'è la bolla dell'IA?
È l'idea che l'attuale clamore, gli investimenti massicci e le valutazioni alle stelle nell'intelligenza artificiale possano essere insostenibili, simile alle precedenti bolle tecnologiche. Se scoppiasse, seguirebbe un periodo di correzione del mercato e riduzione degli investimenti.
Cosa significa "riprendere il controllo" in questo contesto?
Suggerisce che se la frenesia dell'IA rallentasse, la società potrebbe avere una conversazione più ponderata e meno affrettata su come integrare l'IA. L'attenzione potrebbe spostarsi dal puro profitto e velocità alla supervisione umana, all'etica, all'impatto sul lavoro e all'istituzione di regole chiare.
Questo significa che l'IA è negativa?
Non necessariamente. Si tratta più del ritmo e del clamore che la circondano. La preoccupazione è che una bolla privilegi la rapida diffusione rispetto a un'attenta considerazione dei rischi, della sicurezza e dell'impatto sociale.
Quali sono i segni di una bolla dell'IA?
Clamore estremo nei media, aziende che aggiungono "IA" al loro nome per aumentare il valore azionario, finanziamenti massicci per idee non provate, timori di essere tagliati fuori che guidano tutte le decisioni e promesse di intelligenza artificiale generale a breve termine che potrebbero essere irrealistiche.
Lo scoppio di una bolla dell'IA fermerebbe lo sviluppo dell'IA?
No. Probabilmente rallenterebbe il ritmo frenetico degli investimenti e dei progetti guidati dal clamore. La ricerca e le applicazioni serie, pratiche e sostenibili dell'IA continuerebbero, ma con maggiore scrutinio.
Domande intermedie e avanzate
In che modo uno scoppio ci aiuterebbe effettivamente a riprendere il controllo?
Un rallentamento potrebbe creare spazio per:
Regolamentazioni più forti: i governi potrebbero recuperare il ritardo e implementare leggi ponderate.
Quadri etici: l'attenzione potrebbe spostarsi su pregiudizi, trasparenza e responsabilità.
Adattamento del lavoro: più tempo per riqualificare i lavoratori e ridisegnare i lavori.
Dibattito pubblico: un ambiente meno frenetico per la società per discutere il ruolo dell'IA.
Qual è il rischio maggiore se la bolla non scoppia presto?
Il rischio è il blocco: incorporare sistemi di IA imperfetti, distorti o non sicuri in infrastrutture critiche durante un ciclo di clamore, rendendoli molto difficili da correggere in seguito.
Le grandi aziende tecnologiche non sono troppo investite per un vero scoppio?
Sono potenti, ma un importante scoppio della bolla potrebbe comunque portare a svalutazioni azionarie significative, riduzione della spesa per ricerca speculativa e uno spostamento dell'attenzione verso la monetizzazione di ciò che esiste già.