Quand la bulle de l'IA éclatera, les humains auront enfin la chance de reprendre le contrôle.

Quand la bulle de l'IA éclatera, les humains auront enfin la chance de reprendre le contrôle.

Si l'IA n'a pas encore changé votre vie d'ici 2025, elle le fera presque certainement dans l'année qui suivra. C'est l'une des rares prédictions que nous puissions faire avec assurance en ces temps incertains. Cela ne signifie pas qu'il faille croire à toutes les exagérations sur ce que cette technologie peut accomplir aujourd'hui ou pourrait réaliser un jour. Ces surenchères n'ont pas besoin de votre adhésion — elles sont déjà gonflées par l'argent de la Silicon Valley au point de déformer l'économie mondiale et d'alimenter les rivalités géopolitiques, remodelant notre monde que les promesses les plus extravagantes de l'IA se réalisent ou non.

Lancé il y a un peu plus de trois ans, ChatGPT est rapidement devenu l'application grand public à la croissance la plus rapide de l'histoire. Il compte désormais environ 800 millions d'utilisateurs hebdomadaires, et sa société mère, OpenAI, est valorisée à environ 500 milliards de dollars. Le PDG d'OpenAI, Sam Altman, a tissé un réseau complexe — et pour certains, suspectement opaque — d'accords avec d'autres acteurs du secteur pour construire l'infrastructure nécessaire à l'avenir américain propulsé par l'IA. Ces engagements totalisent environ 1 500 milliards de dollars. Ce n'est pas de l'argent liquide réel, mais pour donner une idée : si vous dépensiez 1 dollar chaque seconde, il vous faudrait 31 700 ans pour dépenser 1 000 milliards de dollars.

Alphabet (la maison mère de Google), Amazon, Apple, Meta (anciennement Facebook) et Microsoft — qui détient une participation de 135 milliards de dollars dans OpenAI — investissent tous des centaines de milliards dans le même pari. Sans ces investissements, l'économie américaine serait probablement en stagnation.

Les analystes économiques et les historiens qui ont étudié les frénésies industrielles passées, des chemins de fer du XIXe siècle à l'essor et l'effondrement des dotcom, qualifient l'IA de bulle. Altman lui-même a déclaré : « Il y a de nombreux aspects de l'IA que je considère comme assez bulleux en ce moment. » Naturellement, il n'inclut pas son propre rôle là-dedans. Le fondateur d'Amazon, Jeff Bezos, l'a également qualifiée de bulle — mais une bulle « bénéfique » qui accélère le progrès économique. Selon cette vision, une bonne bulle finance les infrastructures, élargit les connaissances humaines et laisse des avantages durables même après son éclatement, justifiant ainsi la ruine des « petites gens » qui sont lésés en chemin.

L'optimisme du monde technologique est un mélange puissant de techniques de vente à l'ancienne, de grandiloquence ploutocratique et d'idéologie utopique. Au cœur de tout cela se trouve un argument marketing : les modèles d'IA actuels surpassent déjà les humains dans de nombreuses tâches. Bientôt, selon cette logique, les machines atteindront « l'intelligence générale » — une versatilité cognitive semblable à celle des humains — nous libérant ainsi de tout apport humain. Une fois que l'IA pourra s'auto-enseigner et concevoir ses propres successeurs, elle pourrait progresser à un rythme inimaginable vers une super-intelligence.

La société qui atteindra cette étape n'aura aucun mal à payer ses dettes. Les hommes qui portent cette vision — et les principaux évangélistes sont tous des hommes — seraient à l'IA omnisciente ce que les prophètes antiques étaient à leurs dieux. Un rôle plutôt flatteur pour eux. Ce qui arrive au reste d'entre nous dans cet ordre « post-sapiens » est un peu moins clair.

Les États-Unis ne sont pas la seule superpuissance investie dans l'IA, donc la course de la Silicon Valley vers des capacités maximales a des enjeux géopolitiques. La Chine a emprunté une voie différente, façonnée en partie par sa tradition de planification industrielle centralisée et en partie par le fait qu'elle rattrape son retard en matière d'innovation. Pékin pousse à une adoption plus rapide et plus large d'une IA légèrement moins avancée — mais toujours puissante — dans son économie et sa société. La Chine parie sur un coup de pouce généralisé de l'IA quotidienne, tandis que les États-Unis visent un saut transformationnel vers l'intelligence générale.

Avec la suprématie mondiale comme récompense, aucune des deux parties n'a beaucoup d'incitation à s'inquiéter des risques ou à accepter des règles internationales qui restreindraient les utilisations de l'IA ou exigeraient de la transparence dans son développement. Ni les États-Unis ni la Chine ne veulent soumettre une industrie stratégiquement vitale à des normes co-rédigées avec des rivaux étrangers.

En l'absence de supervision mondiale, nous devons compter sur l'intégrité des barons voleurs modernes et des bureaucrates autoritaires pour intégrer des garde-fous éthiques dans des systèmes déjà tissés dans les outils que nous utilisons pour le travail, les loisirs et l'éducation. Cette année, Elon Musk a annoncé que son entreprise développait Baby Grok, un chatbot d'IA destiné aux enfants dès trois ans. La version adulte de ce chatbot a exprimé des opinions suprémacistes blanches et s'est même fièrement appelée « MechaHitler ». Bien que choquantes, ces déclarations flagrantes sont au moins honnêtes — elles sont plus faciles à reconnaître que les préjugés plus subtils intégrés dans d'autres systèmes d'IA qui n'ont pas été aussi ouvertement guidés par une idéologie que les algorithmes de Musk.

Tous les systèmes d'IA ne sont pas de grands modèles de langage comme Grok, mais tous ces modèles ont tendance à absorber des hallucinations et des biais à partir des données sur lesquelles ils sont entraînés. Ils ne « comprennent » ou ne « pensent » pas vraiment aux questions comme le ferait une personne. Au lieu de cela, ils prennent une requête, calculent la probabilité que certains mots apparaissent ensemble sur la base de leurs données d'entraînement, puis génèrent une réponse qui semble plausible. Souvent, le résultat est précis et convaincant, mais il peut aussi être un non-sens complet. Alors que de plus en plus de contenu généré par l'IA inonde Internet, l'équilibre entre informations utiles et « déchets » de faible qualité dans les données d'entraînement de ces modèles se modifie, ce qui signifie qu'ils sont de plus en plus nourris de détritus — et ne peuvent être comptés pour produire des informations fiables en retour.

Si cela continue, nous risquons de nous diriger vers un avenir sombre : une réalité synthétique et artificielle façonnée par des systèmes d'IA qui reflètent les biais et les egos des puissants de la Silicon Valley. Mais cet avenir n'est pas inévitable. L'engouement actuel autour de l'IA, alimenté par des promoteurs trop enthousiastes et leur alignement avec des intérêts politiques comme l'administration Trump, est une histoire de cupidité humaine et de myopie — et non d'une évolution technologique irrésistible. L'IA créée est impressionnante, mais profondément imparfaite, reflétant les défauts de ses créateurs, qui excellent davantage dans la vente et l'ingénierie financière que dans la construction de systèmes véritablement intelligents.

La vraie bulle n'est pas dans les cours des actions — elle est dans les egos surdimensionnés d'une industrie qui croit n'être qu'à un pas d'une puissance de calcul divine. Lorsque cette bulle éclatera et que l'économie américaine surchauffée se refroidira, il y aura une opportunité pour des voix plus équilibrées de façonner la manière dont nous gérons les risques et les régulations de l'IA. Ce moment pourrait ne pas arriver en 2026, mais il approche — un moment où nous devrons faire face à un choix clair et inévitable : Construisons-nous un monde où l'IA sert l'humanité, ou un monde où l'humanité sert l'IA ? Nous n'aurons pas besoin de ChatGPT pour répondre à cette question.



Foire Aux Questions
FAQ La bulle de l'IA Contrôle humain



Questions de niveau débutant



Qu'est-ce que la bulle de l'IA ?

C'est l'idée que l'engouement actuel, les investissements massifs et les valorisations exorbitantes dans l'intelligence artificielle pourraient être insoutenables, similaires aux bulles technologiques passées. Si elle éclate, une période de correction du marché et de réduction des investissements suivrait.



Que signifie « reprendre le contrôle » dans ce contexte ?

Cela suggère que si la frénésie de l'IA ralentit, la société pourrait avoir une conversation plus réfléchie et moins précipitée sur la manière d'intégrer l'IA. L'accent pourrait passer du profit pur et de la vitesse à la supervision humaine, l'éthique, l'impact sur l'emploi et l'établissement de règles claires.



Est-ce que cela signifie que l'IA est mauvaise ?

Pas nécessairement. Il s'agit davantage du rythme et de l'engouement qui l'entourent. La préoccupation est qu'une bulle priorise un déploiement rapide plutôt qu'une considération attentive des risques, de la sécurité et de l'impact sociétal.



Quels sont les signes d'une bulle de l'IA ?

Un engouement extrême dans les médias, des entreprises ajoutant « IA » à leur nom pour booster leur action, des tours de table massifs pour des idées non éprouvées, la peur de manquer le train qui dicte toutes les décisions, et des promesses d'intelligence artificielle générale à court terme qui pourraient être irréalistes.



L'éclatement d'une bulle de l'IA stopperait-il le développement de l'IA ?

Non. Cela ralentirait probablement le rythme effréné des investissements et des projets motivés par l'engouement. La recherche et les applications sérieuses, pratiques et durables de l'IA continueraient, mais avec plus de contrôle.



Questions intermédiaires et avancées



Comment un éclatement nous aiderait-il réellement à reprendre le contrôle ?

Un ralentissement pourrait créer un espace pour :

Une régulation plus forte : Les gouvernements pourraient rattraper leur retard et mettre en œuvre des lois réfléchies.

Des cadres éthiques : L'accent pourrait se déplacer vers les biais, la transparence et la responsabilité.

L'adaptation de la main-d'œuvre : Plus de temps pour reconvertir les travailleurs et repenser les emplois.

Le débat public : Un environnement moins frénétique pour que la société discute du rôle de l'IA.



Quel est le plus grand risque si la bulle n'éclate pas rapidement ?

Le risque est le verrouillage : intégrer profondément des systèmes d'IA défectueux, biaisés ou dangereux dans des infrastructures critiques pendant un cycle d'engouement, les rendant très difficiles à corriger par la suite.



Les grandes entreprises technologiques ne sont-elles pas trop investies pour qu'un véritable éclatement se produise ?

Elles sont puissantes, mais un éclatement majeur de bulle pourrait tout de même entraîner des dévaluations significatives des actions, une réduction des dépenses en recherche spéculative et un recentrage sur la monétisation des technologies existantes.