France-Soir
DR - UNSPLASH
Un Américain de 60 ans a été hospitalisé début août à Seattle après avoir suivi les conseils de ChatGPT, remplaçant le sel de table par du bromure de sodium. Le cas, publié dans Annals of Internal Medicine par des chercheurs de l'université de Washington, illustre à la fois l'idiotie artificielle, et le manque d'esprit critique humain...
Persuadé que le sel classique nuirait à son organisme, l'homme s'est tourné vers ChatGPT. Trois mois plus tard, il consommait du bromure, un produit jadis employé dans les sédatifs, aujourd'hui proscrit pour ingestion. Hallucinations, paranoïa et hospitalisation sous contrainte ont rapidement suivi. Comme le rappellent les médecins, « il est hautement improbable qu'un expert médical aurait suggéré le bromure de sodium face à un patient cherchant un substitut viable au chlorure de sodium ».
Le cas clinique réveille un spectre que l'on croyait enterré. Le bromisme, fréquent au début du XXe siècle, avait quasiment disparu avec l'interdiction de ces sels toxiques. Voir ressurgir une telle intoxication au temps des assistants virtuels a de quoi interroger. Si ChatGPT précise bien dans ses conditions d'utilisation qu'il n'est pas un outil médical, cela ne suffit pas à endiguer des usages déviants. Les chercheurs soulignent que lorsqu'ils ont posé la même question à une version antérieure du chatbot, celui-ci a mentionné le bromure sans avertissement particulier.
Face à ces dérives, OpenAI a annoncé le 7 août une mise à jour de son modèle GPT-5, censé mieux détecter les questions médicales sensibles et alerter l'utilisateur. Reste que l'épisode souligne les failles importantes de l'intelligence artificielle.