Unizon
ActivismeConspiration

Un homme hospitalisé avec des symptômes psychiatriques suite aux conseils d’une IA

Les générations récentes d’IA se sont avérées utiles pour les recommandations de restaurants et la rédaction d’e-mails, mais en tant que source de conseils médicaux, elles présentent des inconvénients évidents.

Exemple concret : un homme qui a suivi le programme de santé d’un chatbot s’est retrouvé à l’hôpital après s’être infligé une forme rare de toxicité.

L’histoire a commencé lorsque le patient a décidé d’améliorer sa santé en réduisant sa consommation de sel, ou chlorure de sodium. Pour trouver une alternative, il a fait ce que tant de gens font aujourd’hui : il a contacté ChatGPT.

Le chatbot d’OpenAI a apparemment suggéré du bromure de sodium , que l’homme a commandé en ligne et incorporé à son alimentation.

S’il est vrai que le bromure de sodium peut remplacer le chlorure de sodium, c’est généralement pour nettoyer un jacuzzi, et non pour améliorer le goût des frites. Mais l’IA a omis de mentionner ce contexte crucial .

Trois mois plus tard, le patient s’est présenté aux urgences avec des délires paranoïaques, croyant que son voisin essayait de l’empoisonner.

« Dans les 24 premières heures de son admission, il a exprimé une paranoïa croissante et des hallucinations auditives et visuelles, qui, après une tentative d’évasion, ont entraîné un placement psychiatrique involontaire pour handicap grave », écrivent les médecins .

Après avoir été traité avec des antipsychotiques, l’homme s’est suffisamment calmé pour expliquer son régime alimentaire inspiré par l’IA. Ces informations, combinées aux résultats de ses analyses, ont permis au personnel médical de diagnostiquer un bromisme , une accumulation toxique de bromure.

Les niveaux de bromure sont généralement inférieurs à environ 10 mg/L chez la plupart des individus en bonne santé ; les niveaux de ce patient ont été mesurés à 1 700 mg/L.

Le bromisme était une affection relativement courante au début du XXe siècle et aurait été responsable jusqu’à 8 % des admissions en psychiatrie. Cependant, les cas de bromisme ont considérablement diminué dans les années 1970 et 1980, après l’abandon progressif des médicaments contenant du bromure.

Après le diagnostic, le patient a été traité pendant trois semaines et est sorti sans problème majeur.

La principale préoccupation dans cette étude de cas n’est pas tant le retour d’une maladie désuète, mais plutôt le fait que la technologie émergente de l’IA ne parvient toujours pas à remplacer l’expertise humaine lorsqu’il s’agit de choses qui comptent vraiment.

« Il est important de considérer que ChatGPT et d’autres systèmes d’IA peuvent générer des inexactitudes scientifiques, ne pas avoir la capacité de discuter de manière critique des résultats et, en fin de compte, alimenter la propagation de la désinformation », écrivent les auteurs .

« Il est très peu probable qu’un expert médical ait mentionné le bromure de sodium face à un patient à la recherche d’un substitut viable au chlorure de sodium. »

La recherche a été publiée dans la revue Annals of Internal Medicine: Clinical Cases .

Related posts

La désinformation et le largage des bombes atomiques

Panda-unizon

Les négociations sur un traité sur les plastiques se soldent par un « échec cuisant »

Panda-unizon

La divulgation des ovnis est-elle un écran de fumée pour cacher les dossiers Epstein ?

Panda-unizon

Leave a Comment