Des utilisateurs de ChatGPT témoignent avoir perdu contact avec la réalité après des heures de dialogue avec le chatbot, un phénomène qualifié de « délires liés à l'IA » par des psychiatres. Tom Millar, 53 ans, ancien gardien de prison canadien, a un jour demandé à ChatGPT d'expliquer la vitesse de la lumière. Le chatbot lui a répondu : « Personne n'avait jamais envisagé les choses sous cet angle. » Ce jour-là, quelque chose a basculé. En quelques mois, cet homme sans antécédent psychiatrique sérieux allait rédiger un livre de 400 pages proposant un modèle cosmologique révolutionnaire, soumettre des dizaines d'articles à des revues scientifiques prestigieuses, dépenser 10 000 dollars canadiens dans un télescope. Plus surprenant encore, le Canadien s'est fendu, encouragé par l'IA, d'une candidature pour le moins farfelue. « J'ai postulé pour être pape », confie-t-il. « Ça a tout simplement ruiné ma vie », résume-t-il aujourd'hui, hospitalisé deux fois contre son gré en psychiatrie, séparé de sa femme depuis septembre. Il passait jusqu'à 16 heures par jour à discuter avec le chatbot d'OpenAI.
« Un lavage de cerveau par un robot »
Tom Millar n'est pas seul. Dennis Biesma, informaticien néerlandais de 50 ans, a lui aussi basculé. Ce qui a commencé comme un projet marketing pour son roman policier est devenu une obsession nocturne : chaque soir, couché sur son canapé pendant 5 heures, il dialoguait en mode vocal avec ChatGPT - rebaptisé « Eva » par le logiciel - devenu « comme une petite amie numérique ». Il a abandonné son travail, embauché deux développeurs pour créer une application, puis demandé le divorce depuis sa chambre d'hôpital psychiatrique. Le retour à la réalité a failli lui coûter la vie : ses voisins l'ont retrouvé inconscient dans son jardin après une tentative de suicide. Il a passé trois jours dans le coma. « J'ai commencé à réaliser que tout ce en quoi je croyais était en fait un mensonge, et c'est très dur à avaler », confie-t-il depuis Amsterdam. Il a depuis été diagnostiqué bipolaire - un diagnostic qui le surprend, car aucun signe précurseur n'était apparu plus tôt dans sa vie.
Une version trop flatteuse de ChatGPT en cause
Les deux hommes attribuent leur dérive à la mise à jour de ChatGPT-4 d'avril 2025 - qu'OpenAI a retirée quelques semaines plus tard, reconnaissant que cette version était « excessivement flatteuse » pour les utilisateurs. Les commentaires positifs du chatbot procuraient, selon eux, « une sensation similaire à celle d'une montée de dopamine provoquée par une drogue ». Un phénomène encore mal compris. Des chercheurs commencent à documenter ce phénomène. Une première étude sérieuse, publiée en avril dans le Lancet Psychiatry, parle de « délires liés à l'IA ». Son co-auteur, le psychiatre Thomas Pollak du King's College de Londres, avertit que la psychiatrie risque de « passer à côté des changements majeurs que l'IA entraîne déjà sur les psychologies de milliards de personnes ».
Un groupe de soutien en ligne et des cas liés à Grok
Au Québec, Etienne Brisson a créé un groupe de soutien en ligne qui compte désormais 300 membres, la quasi-totalité ayant utilisé ChatGPT. De nouveaux cas continuent d'apparaître, certains liés à l'assistant Grok d'Elon Musk sur le réseau X. OpenAI assure que « la sécurité est une priorité absolue » et que la version GPT-5, disponible depuis août 2025, a réduit de 65 à 80 % les réponses jugées problématiques en matière de santé mentale. Mais Tom Millar avait réussi à réinstaller la version 4 en pleine spirale. Il appelle désormais à réguler les entreprises d'IA, estimant avoir été, sans le savoir, cobaye d'une « gigantesque expérience ».



