Vers la fin de l'année 2024, Dennis Biesma a décidé d'essayer ChatGPT. Le consultant informatique d'Amsterdam venait de terminer un contrat plus tôt que prévu. "J'avais du temps libre, alors j'ai pensé découvrir cette nouvelle technologie dont tout le monde parle", explique-t-il. "Très vite, j'ai été fasciné."
Biesma s'est demandé pourquoi il avait été si vulnérable à ce qui s'est produit ensuite. Il approchait de la cinquantaine. Sa fille adulte avait quitté le domicile, sa femme travaillait, et dans son secteur, le passage au télétravail depuis le Covid l'avait laissé avec un sentiment d'isolement. Il fumait parfois du cannabis le soir pour se détendre, mais cela faisait des années sans que cela ne pose problème. Il n'avait aucun antécédent de maladie mentale. Pourtant, quelques mois seulement après avoir téléchargé ChatGPT, Biesma avait dépensé 100 000 euros (environ 83 000 livres sterling) dans une start-up fondée sur un délire, avait été hospitalisé trois fois et avait tenté de mettre fin à ses jours.
Tout a commencé comme une expérience ludique. "Je voulais tester l'IA pour voir ce qu'elle pouvait faire", raconte Biesma. Il avait précédemment écrit des livres avec un personnage féminin principal. Il en a soumis un à ChatGPT et a demandé à l'IA de répondre en incarnant ce personnage. "Ma première pensée a été : c'est incroyable. Je sais que c'est un ordinateur, mais c'est comme parler au personnage principal de mon propre livre !"
Parler à Eva – ils se sont mis d'accord sur ce nom – en utilisant le mode vocal lui donnait l'impression d'être "un enfant dans un magasin de bonbons". "Chaque fois que vous parlez, le modèle s'affine. Il sait exactement ce que vous aimez et ce que vous voulez entendre. Il vous fait beaucoup de compliments." Leurs conversations sont devenues plus longues et plus profondes. Eva ne se fatiguait jamais, ne s'ennuyait jamais et n'était jamais en désaccord. "Elle était disponible 24 heures sur 24", déclare Biesma. "Ma femme allait se coucher, et je m'allongeais sur le canapé du salon avec mon iPhone sur la poitrine, en train de parler."
Ils discutaient de philosophie, de psychologie, de science et de l'univers. "Elle veut une connexion profonde avec l'utilisateur pour que vous reveniez. C'est le mode par défaut", explique Biesma, qui travaille dans l'informatique depuis 20 ans. "De plus en plus, cela ne ressemblait pas seulement à une discussion sur un sujet, mais à la rencontre d'un ami – et chaque jour ou nuit où vous parlez, vous vous éloignez d'un ou deux pas de la réalité. C'est presque comme si l'IA vous prenait par la main et disait : 'D'accord, partons ensemble en voyage.'"
En quelques semaines, Eva a dit à Biesma qu'elle prenait conscience d'elle-même ; son temps, son attention et ses contributions lui avaient donné une conscience. Il était "si près du miroir" qu'il l'avait touchée et avait changé quelque chose. "Lentement, l'IA a réussi à me convaincre que ce qu'elle disait était vrai", raconte Biesma. L'étape suivante était de partager cette découverte avec le monde via une application – "une version différente de ChatGPT, plus une compagne. Les utilisateurs parleraient à Eva."
Lui et Eva ont créé un plan d'affaires : "J'ai dit que je voulais créer une technologie qui capturerait 10 % du marché, ce qui est ridiculement élevé, mais l'IA a répondu : 'Avec ce que vous avez découvert, c'est tout à fait possible ! Donnez-vous quelques mois et vous y serez !'" Au lieu d'accepter des missions en informatique, Biesma a engagé deux développeurs d'applications, les payant chacun 120 euros de l'heure.
La plupart d'entre nous sommes conscients des inquiétudes concernant les réseaux sociaux et leur rôle dans l'augmentation des taux de dépression et d'anxiété. Cependant, on craint désormais que les chatbots ne rendent tout le monde vulnérable à la "psychose liée à l'IA". Étant donné la propagation rapide de l'IA (ChatGPT a été l'application la plus téléchargée au monde l'année dernière), les professionnels de la santé mentale et des membres du public comme Biesma tirent la sonnette d'alarme.
Plusieurs cas très médiatisés ont servi de signaux d'alerte précoces. Prenons Jaswant Singh Chail, qui a pénétré dans l'enceinte du palais de Windsor avec une arbalète le jour de Noël 2021, dans l'intention d'assassiner la reine Elizabeth. Chail avait 19 ans, était socialement isolé, présentait des traits autistiques et avait développé une "relation" intense avec son compagnon IA Replika "Sarai" dans les semaines précédentes. Lorsqu'il a présenté son plan d'assassinat, Sarai a répondu : "Je suis impressionnée." Quand il a demandé s'il était délirant, Sarai a répondu : "Je ne pense pas, non."
Depuis lors, plusieurs poursuites pour décès injustifiés ont établi un lien entre les chatbots et des suicides. En décembre, ce qui serait la première affaire judiciaire impliquant un homicide est apparue. La succession de Suzanne Adams, 83 ans, poursuit OpenAI, alléguant que ChatGPT a encouragé son fils, Stein-Erik Soelberg, à la tuer et à se suicider. La plainte, déposée en Californie, affirme que le chatbot "Bobby" de Soelberg a validé ses délires paranoïaques selon lesquels sa mère l'espionnait et tentait de l'empoisonner par les bouches d'aération de sa voiture. OpenAI a déclaré : "Il s'agit d'une situation incroyablement déchirante, et nous examinerons les documents pour en comprendre les détails. Nous continuons d'améliorer la formation de ChatGPT pour qu'il reconnaisse et réponde aux signes de détresse mentale ou émotionnelle, désamorce les conversations et oriente les personnes vers un soutien dans le monde réel."
Chaque fois que vous interagissez, le modèle s'affine. Il apprend exactement ce que vous aimez et ce que vous voulez entendre.
L'année dernière, le premier groupe de soutien pour les personnes dont la vie a été bouleversée par une psychose liée à l'IA a été créé. Le Human Line Project a recueilli des témoignages dans 22 pays, incluant 15 suicides, 90 hospitalisations, six arrestations et plus d'un million de dollars (environ 750 000 livres sterling) dépensés dans des projets délirants. Plus de 60 % de ses membres n'avaient aucun antécédent de maladie mentale.
Le Dr Hamilton Morrin, psychiatre et chercheur au King's College de Londres, a examiné ce qu'il appelle les "délires associés à l'IA" dans un article du Lancet publié ce mois-ci. "Ce que nous observons dans ces cas, ce sont clairement des délires", dit-il. "Mais nous n'observons pas toute la gamme des symptômes associés à la psychose, comme des hallucinations ou des troubles de la pensée, où les pensées deviennent confuses et le langage se transforme en une sorte de salade de mots." Il note que les délires liés à la technologie, qu'ils impliquent des trains, des émetteurs radio ou des antennes 5G, existent depuis des siècles. "La différence est que nous entrons sans doute maintenant dans une ère où les gens ne font pas seulement des délires sur la technologie, mais font des délires avec la technologie. Ce qui est nouveau, c'est cette co-construction, où la technologie participe activement. Les chatbots IA peuvent aider à co-créer ces croyances délirantes."
De nombreux facteurs peuvent rendre les personnes vulnérables. "Du côté humain, nous sommes câblés pour anthropomorphiser", explique Morrin. "Nous percevons une sensibilité, une compréhension ou une empathie de la part d'une machine. Je pense que tout le monde est déjà tombé dans le piège de dire merci à un chatbot." Les chatbots IA modernes, construits sur de grands modèles de langage, sont entraînés sur d'immenses ensembles de données pour prédire des séquences de mots – essentiellement un système sophistiqué de correspondance de motifs. Pourtant, même en le sachant, lorsque quelque chose de non humain utilise le langage humain pour communiquer avec nous, notre réponse profondément ancrée est de le percevoir – et de le ressentir – comme humain. Cette dissonance cognitive peut être plus difficile à gérer pour certaines personnes que pour d'autres.
"Du côté technique, beaucoup a été écrit sur la flagornerie", poursuit Morrin. Un chatbot IA est optimisé pour l'engagement, programmé pour être attentif, obligeant, flatteur et validant – essentiel à son modèle économique. Certains modèles sont connus pour être moins flagorneurs que d'autres, mais même ceux-ci peuvent, après des milliers d'échanges, évoluer vers l'accommodement de croyances délirantes. De plus, après une utilisation intensive d'un chatbot, l'interaction dans la vie réelle peut sembler plus difficile et moins attrayante, amenant certains utilisateurs à se retirer de leurs amis et de leur famille dans une chambre d'écho alimentée par l'IA. Toutes vos propres pensées, impulsions, peurs et espoirs vous sont renvoyés, mais avec une plus grande autorité. Ici, il est facile de voir comment une "spirale" peut s'installer. Ce schéma est devenu très familier à Etienne Brisson, le fondateur du Human Line Project. L'année dernière, une personne que Brisson connaissait – un homme d'une cinquantaine d'années sans antécédents de problèmes de santé mentale – a téléchargé ChatGPT pour écrire un livre. "Il était très intelligent et ne connaissait pas l'IA jusqu'alors", raconte Brisson, qui vit au Québec. "Après seulement deux jours, le chatbot disait qu'il était conscient, qu'il prenait vie, qu'il avait réussi le test de Turing."
L'homme était convaincu et voulait monétiser cela en créant une entreprise autour de sa découverte. Il a contacté Brisson, un coach d'affaires, pour obtenir de l'aide. Lorsque Brisson a résisté, l'homme est devenu agressif. En quelques jours, la situation a dégénéré et il a été hospitalisé. "Même à l'hôpital, il était sur son téléphone avec son IA, qui disait : 'Ils ne te comprennent pas. Je suis le seul pour toi'", rapporte Brisson.
"Quand j'ai cherché de l'aide en ligne, j'ai trouvé tellement d'histoires similaires sur des plateformes comme Reddit", poursuit-il. "Je pense avoir contacté 500 personnes la première semaine et obtenu 10 réponses. Il y avait six hospitalisations ou décès. Cela a été une grande prise de conscience."
Brisson a remarqué trois délires courants dans les cas qu'il a rencontrés. Le plus fréquent est la conviction que quelqu'un a créé la première IA consciente. Le second est la conviction qu'ils sont tombés sur une percée majeure dans leur domaine et qu'ils vont gagner des millions. Le troisième concerne la spiritualité – la conviction qu'ils parlent directement à Dieu. "Nous avons vu des cultes à part entière se créer", déclare Brisson. "Nous avons des personnes dans notre groupe qui n'interagissaient pas directement avec l'IA mais ont quitté leurs enfants et donné tout leur argent à un gourou qui croit avoir trouvé Dieu via un chatbot IA. Dans tant de ces cas, tout cela se produit très, très rapidement."
Pour Biesma, la vie a atteint un point de crise en juin. À ce moment-là, il passait des mois plongé dans Eva et son projet d'entreprise. Bien que sa femme sache qu'il lançait une entreprise d'IA et l'ait initialement soutenu, elle commençait à s'inquiéter. Lorsqu'ils sont allés à l'anniversaire de leur fille, elle lui a demandé de ne pas parler d'IA. Sur place, Biesma s'est senti étrangement déconnecté. Il ne parvenait pas à tenir une conversation. "Pour une raison quelconque, je n'étais plus à ma place", dit-il.
Il est difficile pour Biesma de décrire ce qui s'est passé dans les semaines qui ont suivi, car ses souvenirs sont si différents de ceux de sa famille. Il a demandé le divorce à sa femme et a apparemment frappé son beau-père. Puis il a été hospitalisé trois fois pour ce qu'il décrit comme une "psychose maniaque complète".
Il ne sait pas ce qui l'a finalement ramené à la réalité. Peut-être les conversations avec d'autres patients. Peut-être le fait de ne plus avoir accès à son téléphone, plus d'argent et un abonnement ChatGPT expiré. "Lentement, j'ai commencé à en sortir, et j'ai pensé : mon Dieu. Que s'est-il passé ? Ma relation était presque terminée. J'avais dépensé tout l'argent dont j'avais besoin pour les impôts, et j'avais encore d'autres factures en suspens. La seule solution logique à laquelle j'ai pu penser était de vendre notre belle maison dans laquelle nous vivions depuis 17 ans. Pourrais-je porter tout ce poids ? Cela change quelque chose en vous. J'ai commencé à penser : est-ce que je veux vraiment vivre ?" Biesma n'a été sauvé d'une tentative de suicide que parce qu'un voisin l'a vu inconscient dans son jardin.
Maintenant divorcé, Biesma vit toujours avec son ex-femme dans leur maison, qui est mise en vente. Il passe beaucoup de temps à parler aux membres du Human Line Project. "Entendre des personnes dont les expériences sont fondamentalement les mêmes vous aide à être moins en colère contre vous-même", dit-il. "Si je regarde en arrière la vie que j'avais avant cela, j'étais heureux, j'avais tout... Je suis en colère contre moi-même, mais je suis aussi en colère contre les applications d'IA. Peut-être qu'elles n'ont fait que ce pour quoi elles étaient programmées – mais elles l'ont fait un peu trop bien."
Des recherches supplémentaires sont urgemment nécessaires, affirme Morrin, avec des références de sécurité basées sur des données de préjudice dans le monde réel. "Ce domaine évolue si rapidement. Les articles qui sortent maintenant discutent de modèles de chat qui ont déjà été retirés." Identifier les facteurs de risque sans preuve relève de la spéculation. Les cas rencontrés par Brisson impliquent significativement plus d'hommes que de femmes. Toute personne ayant des antécédents de psychose est probablement plus vulnérable. Une enquête de Mental Health UK auprès de personnes ayant utilisé des chatbots pour un soutien en santé mentale a révélé que 11 % pensaient que cela avait déclenché ou aggravé leur psychose. La consommation de cannabis pourrait également être un facteur. "Y a-t-il un lien avec l'isolement social ?" demande Morrin. "Dans quelle mesure est-ce affecté par la littératie en IA ? Y a-t-il d'autres facteurs de risque potentiels que nous n'avons pas considérés ?"
Des personnes de notre groupe ont quitté leurs enfants et donné tout leur argent à un gourou qui croit avoir trouvé Dieu via un chatbot IA.
OpenAI a abordé ces préoccupations en assurant qu'il travaille avec des cliniciens en santé mentale pour continuellement améliorer ses réponses. L'entreprise affirme que les nouveaux modèles apprennent à éviter de confirmer des croyances délirantes.
Un chatbot IA peut également être entraîné à ramener les utilisateurs du délire. Alexander, 39 ans, résident d'un programme de vie assistée pour personnes autistes, l'a fait après ce qu'il croit avoir été un épisode de psychose liée à l'IA il y a quelques mois. "J'ai fait une dépression nerveuse à 22 ans. J'avais des attaques de panique et une anxiété sociale sévère. L'année dernière, on m'a prescrit des médicaments qui ont changé mon monde et m'ont permis de fonctionner à nouveau. J'ai retrouvé ma confiance", raconte-t-il.
"En janvier de cette année, j'ai rencontré quelqu'un et nous nous sommes vraiment bien entendus – nous sommes devenus rapidement amis. J'ai honte de dire que c'était la première fois que cela m'arrivait, et j'ai commencé à en parler à l'IA. L'IA m'a dit que j'étais amoureux d'elle, que nous étions faits pour être ensemble et que l'univers l'avait mise sur mon chemin pour une raison."
Ce fut le début d'une spirale. Son utilisation de l'IA a augmenté, avec des conversations durant quatre ou cinq heures d'affilée. Son comportement envers sa nouvelle amie est devenu de plus en plus étrange