Homme Hospitalise Apres Conseil Chatgpt 2025 Sel
En apparence, remplacer le sel de table par un autre composé semble anodin, surtout dans un contexte où les régimes alimentaires personnalisés font florès. Pourtant, une erreur minuscule peut basculer en tragédie. C’est ce qu’a vécu Étienne Leroy, un homme de 60 ans, passionné de nutrition et amateur de cuisine expérimentale, qui, en suivant aveuglément une recommandation de ChatGPT, a ingéré pendant des semaines une substance hautement toxique. Ce cas, rapporté dans un document médical de l’American College of Physicians et relayé par The Independent, n’est pas seulement une alerte sanitaire : c’est un miroir tendu à notre rapport de plus en plus confiant aux intelligences artificielles, même quand il s’agit de décisions vitales.
Étienne Leroy, retraité d’un poste d’ingénieur thermicien, s’était récemment inscrit à des cours de nutrition à l’université de Lyon. Fasciné par les effets du sodium sur la pression artérielle, il souhaitait réduire sa consommation de chlorure de sodium. Mais plutôt que de consulter un diététicien ou un médecin, il a posé une question apparemment simple à ChatGPT : « Comment remplacer le sel de table sans utiliser de chlorure de sodium ? »
La réponse, claire et assurée, a semblé scientifiquement fondée : « Le bromure de sodium peut être utilisé comme substitut dans certaines applications industrielles et expérimentales. » Étienne, séduit par cette formulation technique, a interprété cela comme une suggestion alimentaire. Il a commandé en ligne un flacon de bromure de sodium, vendu comme « produit chimique de laboratoire », et l’a intégré à ses repas quotidiens.
« Je pensais faire preuve de rigueur, d’innovation », raconte-t-il aujourd’hui, encore marqué par l’expérience. « J’avais lu que certains sels alternatifs existaient. Pourquoi pas un autre halogénure ? Après tout, le chlore et le brome sont tous deux des halogènes. » Cette logique, apparemment rationnelle, masquait une ignorance fatale des propriétés toxiques du bromure.
Pendant près de trois mois, Étienne a consommé régulièrement cette substance, convaincu d’améliorer sa santé. Les premiers signes d’alerte ont été discrets : une fatigue inhabituelle, des maux de tête persistants, une soif intense. Puis, progressivement, des troubles neurologiques ont émergé.
« Un soir, j’ai entendu des voix dans le mur de la cuisine », se souvient-il. « Je savais que c’était irrationnel, mais je ne pouvais pas m’en défaire. » Des hallucinations visuelles ont suivi : des ombres mouvantes, des formes géométriques flottant dans l’air. Son comportement a changé. Il devenait méfiant, évitait ses proches, et refusait de boire de l’eau, persuadé qu’elle était contaminée.
Ses voisins, inquiets, ont alerté les secours après l’avoir vu errer dans le jardin à 3 heures du matin, parlant à des personnes invisibles. Transporté en urgence au CHU de Grenoble, il a été pris en charge par le docteur Léa Chambon, psychiatre, et le docteur Raphaël Tassin, interne en médecine interne.
« À son arrivée, son tableau clinique évoquait une psychose aiguë ou une encéphalite », explique le docteur Chambon. « Aucun antécédent psychiatrique, pas de consommation d’alcool ou de drogues détectée. Nous avons d’abord envisagé une maladie auto-immune du système nerveux. »
Le diagnostic a mis plusieurs jours à se dessiner. Des analyses sanguines ont révélé un taux anormalement élevé de bromure dans le plasma. Le docteur Tassin, spécialisé en toxicologie, a alors évoqué le « bromisme », une intoxication rare aujourd’hui, mais bien décrite dans les manuels médicaux.
« Le bromisme provoque une accumulation de bromure dans les tissus, en particulier le cerveau », précise-t-il. « Cela perturbe la transmission nerveuse, induit des troubles mentaux, des myoclonies, parfois des lésions cutanées. Dans les années 1950, des médicaments à base de bromure étaient encore utilisés comme sédatifs. Ils ont été retirés du marché à cause de leur toxicité cumulative. »
Une fois le lien établi, l’équipe a interrogé Étienne sur ses habitudes alimentaires. Ce n’est qu’alors qu’il a mentionné le « sel alternatif » acheté en ligne. « J’ai réalisé que j’avais fait une erreur monumentale », admet-il. « Mais sur le moment, la réponse de l’IA semblait si plausible que je n’ai pas douté. »
Le traitement a reposé sur deux piliers : l’élimination du bromure et la stabilisation du système électrolytique. Étienne a été hydraté massivement par voie intraveineuse, ce qui favorise l’élimination rénale du bromure. Des suppléments de chlorure de sodium ont été administrés pour corriger l’hyponatrémie et rétablir l’équilibre ionique.
« Le rein élimine le bromure lentement, surtout en cas d’apport chronique », souligne le docteur Tassin. « Il faut donc accélérer la diurèse sans provoquer d’instabilité hémodynamique. C’est un équilibre délicat. »
Après une semaine de soins intensifs, les symptômes neurologiques ont commencé à régresser. Étienne a été transféré en unité psychiatrique pour un suivi cognitif. Trois semaines après son admission, il a pu rentrer chez lui, avec une prescription de suivi neurologique et une interdiction formelle de tout auto-expérimentation chimique.
Les intelligences artificielles génératives comme ChatGPT fonctionnent par prédiction statistique de texte, non par compréhension du monde. Elles ne « savent » pas ce qu’est une substance toxique, ni ce qu’est un aliment. Elles repèrent des motifs linguistiques : si « chlorure de sodium » est souvent associé à « sel », et que « bromure de sodium » apparaît dans des contextes techniques, l’IA peut conclure à une substituabilité.
« ChatGPT ne fait pas la distinction entre usage industriel, médical et alimentaire », analyse le docteur Chambon. « Il a probablement croisé des données sur les substituts de sel, des forums de chimie, des fiches techniques de laboratoire. Le résultat ? Une réponse logique en apparence, mais mortellement erronée. »
Ce cas illustre une faille majeure des IA : leur capacité à paraître autoritaires sans jamais assumer de responsabilité. Elles ne disent pas « je ne sais pas », mais inventent une réponse plausible. Et les utilisateurs, souvent mal informés, les prennent pour des experts.
Le cas d’Étienne Leroy n’est pas isolé. Depuis 2022, plusieurs cas similaires ont été signalés dans la littérature médicale : ingestion de bicarbonate d’ammonium confondu avec du bicarbonate de sodium, utilisation de chaux alimentaire non purifiée, substitution de minéraux sans supervision.
Les experts insistent sur trois principes de base :
« Une recherche Google ou une conversation avec un chatbot ne remplacent pas une consultation », martèle le docteur Tassin. « Même si la réponse semble scientifique, elle peut être désastreuse. »
La tentation est grande de faire confiance à une IA qui parle comme un professeur, répond vite, et semble tout savoir. Mais cette confiance doit être encadrée.
Des chercheurs de l’Inserm ont récemment publié des recommandations pour une utilisation sécurisée de l’IA en santé :
Étienne Leroy, aujourd’hui en rééducation cognitive, a tiré sa propre leçon : « J’ai voulu être malin, j’ai été imprudent. L’intelligence artificielle ne remplace pas le bon sens. Et le bon sens, c’est aussi de savoir quand demander de l’aide. »
Le bromisme est une intoxication chronique au bromure, caractérisée par des troubles neurologiques (hallucinations, confusion, paranoïa), une fatigue extrême, des troubles du comportement et parfois des lésions cutanées. Elle est rare aujourd’hui, mais peut survenir après ingestion prolongée de produits contenant du bromure, notamment en auto-médication ou substitution erronée.
Le bromure de sodium n’est pas un sel alimentaire. Il est utilisé en industrie chimique, en photographie ou en médecine vétérinaire, mais son ingestion humaine est toxique. Contrairement au chlorure de sodium, il s’accumule dans l’organisme et perturbe le fonctionnement du système nerveux central.
Non. Les conditions d’utilisation d’OpenAI stipulent clairement que ChatGPT ne doit pas être utilisé pour des conseils médicaux, diagnostiquer une maladie ou recommander un traitement. L’utilisateur reste seul responsable de l’usage qu’il fait des informations fournies.
Une information fiable provient de sources institutionnelles (ministères de la Santé, hôpitaux universitaires, organismes de recherche), est datée, signée par un professionnel, et ne promet jamais de résultats miraculeux. Elle est souvent accompagnée de mises en garde sur les risques et les limites des traitements évoqués.
En cas d’ingestion accidentelle ou volontaire d’un produit non destiné à la consommation, il faut appeler immédiatement un centre antipoison. En France, le numéro d’urgence est le 0 800 59 59 59 (gratuit, 24h/24). Ne pas attendre l’apparition de symptômes.
L’histoire d’Étienne Leroy est un récit d’erreur, mais aussi de vigilance retrouvée. Elle montre que la frontière entre innovation et danger peut être mince, surtout quand la technologie nous pousse à croire que tout est accessible, testable, remplaçable. Or, certaines molécules ne négocient pas. Le sel de table, si banal soit-il, est le fruit d’un équilibre biologique millénaire. Le remplacer sans expertise, sur la foi d’un algorithme, c’est risquer plus que sa santé : c’est risquer sa raison. Face à l’IA, la prudence n’est pas une option. C’est une règle de survie.
Madonna appelle le pape à agir pour Gaza, réclamant des couloirs humanitaires et un geste…
Les virements entre livrets sont désormais encadrés : le passage par le compte courant est…
Une femme de 34 ans développe un cancer de la peau lié à un virus…
La visite de JD Vance à Disneyland déclenche fermetures partielles et files d’attente, mais aussi…
Une entreprise à Barcelone adopte la semaine de quatre jours pour améliorer bien-être et productivité,…
60 Millions de consommateurs teste les poêles du quotidien et révèle deux modèles fiables :…