Les chatbots médicaux arrivent


0

Les chatbots médicaux arrivent. Voici ce que vous devez savoir avant d'en utiliser un.

WASHINGTON (AP) – Alors que des centaines de millions de personnes se tournent vers les chatbots pour obtenir des conseils , ce n’était qu’une question de temps avant que les entreprises technologiques ne commencent à proposer des programmes spécialement conçus pour répondre aux questions de santé .

En janvier, OpenAI a lancé ChatGPT Health, une nouvelle version de son chatbot qui, selon la société, peut analyser les dossiers médicaux, les applications de bien-être et les données des appareils portables des utilisateurs pour répondre à leurs questions de santé et médicales.

Il y a actuellement une liste d'attente pour ce programme. Anthropic , une entreprise concurrente spécialisée en IA, propose des fonctionnalités similaires à certains utilisateurs de son chatbot Claude.

Les deux entreprises précisent que leurs programmes, appelés modèles de langage à grande échelle, ne remplacent pas les soins professionnels et ne doivent pas servir à diagnostiquer des maladies. Elles indiquent plutôt que les chatbots peuvent résumer et expliquer des résultats d'examens complexes, aider à préparer une consultation médicale ou analyser des tendances de santé importantes dissimulées dans les dossiers médicaux et les données d'applications.

Voici quelques éléments à prendre en compte avant de discuter de votre santé avec un chatbot :

Les chatbots peuvent offrir des informations plus personnalisées qu'une recherche Google.

Certains médecins et chercheurs ayant travaillé avec ChatGPT Health et des programmes similaires les considèrent comme une amélioration par rapport à la situation actuelle.

Les plateformes d'IA ne sont pas parfaites – elles peuvent parfois avoir des hallucinations ou donner de mauvais conseils – mais les informations qu'elles produisent sont plus susceptibles d'être personnalisées et spécifiques que celles que les patients pourraient trouver via une recherche Google.

« Souvent, l'alternative, c'est de ne rien faire, ou de laisser le patient improviser », a déclaré le Dr Robert Wachter, expert en technologies médicales à l'Université de Californie à San Francisco. « C'est pourquoi je pense que si l'on utilise ces outils de manière responsable, on peut obtenir des informations utiles. »

une femme sur le canapé avec son ordinateur portable
Les chatbots de santé peuvent fournir des informations utiles s'ils sont utilisés de manière responsable. ( Karola G/Pexels/Canva )

L'un des avantages des chatbots les plus récents est qu'ils répondent aux questions des utilisateurs en tenant compte du contexte de leurs antécédents médicaux, notamment leurs ordonnances, leur âge et les notes de leur médecin.

Même si vous n'avez pas donné à l'IA accès à vos informations médicales, Wachter et d'autres recommandent de fournir aux chatbots autant de détails que possible pour améliorer leurs réponses.

Si vous présentez des symptômes inquiétants, évitez l'IA

Wachter et d'autres experts soulignent qu'il existe des situations où il est préférable de ne pas interagir avec un chatbot et de consulter un médecin immédiatement. Des symptômes tels qu'un essoufflement, des douleurs thoraciques ou de violents maux de tête peuvent signaler une urgence médicale.

Même dans des situations moins urgentes, les patients et les médecins devraient aborder les programmes d'IA avec « un sain scepticisme », a déclaré le Dr Lloyd Minor de l'université de Stanford.

« S’il s’agit d’une décision médicale majeure, ou même d’une décision mineure concernant votre santé, vous ne devriez jamais vous fier uniquement à ce que vous tirez d’un modèle linguistique complexe », a déclaré Minor, doyen de la faculté de médecine de Stanford.

Pensez à protéger votre vie privée avant de télécharger des données de santé.

De nombreux avantages offerts par les chatbots d'IA proviennent du partage d'informations médicales personnelles par les utilisateurs. Il est toutefois important de comprendre que les informations partagées avec une entreprise spécialisée en IA ne sont pas protégées par la loi fédérale sur la protection de la vie privée qui régit habituellement les données médicales sensibles.

Communément appelée loi HIPAA, cette loi prévoit des amendes et même des peines de prison pour les médecins, les hôpitaux, les assureurs et autres services de santé qui divulguent des dossiers médicaux . Cependant, elle ne s'applique pas aux entreprises qui conçoivent des chatbots.

« Lorsqu'une personne télécharge son dossier médical dans un système de traitement du langage naturel, c'est très différent du fait de le remettre à un nouveau médecin », a déclaré Minor. « Les patients doivent comprendre que les normes de confidentialité sont totalement différentes. »

OpenAI et Anthropic affirment toutes deux que les données de santé des utilisateurs sont conservées séparément des autres types de données et bénéficient de protections de confidentialité renforcées. Ces entreprises n'utilisent pas les données de santé pour entraîner leurs modèles. Les utilisateurs doivent donner leur consentement pour partager leurs informations et peuvent se désinscrire à tout moment.

Les tests montrent que les chatbots peuvent trébucher

Malgré l'enthousiasme suscité par l'IA, les tests indépendants de cette technologie n'en sont qu'à leurs débuts. Les premières études suggèrent que des programmes comme ChatGPT excellent dans les examens médicaux complexes, mais rencontrent souvent des difficultés lors des interactions avec les humains.

Une étude menée récemment par l'Université d'Oxford auprès de 1 300 participants a révélé que les personnes utilisant des chatbots d'IA pour effectuer des recherches sur des problèmes de santé hypothétiques ne prenaient pas de meilleures décisions que celles utilisant des recherches en ligne ou leur propre jugement.

Les chatbots d'IA, confrontés à des scénarios médicaux présentés sous une forme écrite et exhaustive, ont correctement identifié la pathologie sous-jacente dans 95 % des cas.

« Le problème n’était pas là », a déclaré Adam Mahdi, auteur principal de l’étude et membre de l’Oxford Internet Institute. « Les choses ont déraillé lors de l’interaction avec les participants réels. »

téléphone avec chatbot
Les personnes ne fournissent pas toutes les informations nécessaires aux chatbots pour identifier un problème de santé. ( anyaberkut/Getty Images Pro/Canva )

Mahdi et son équipe ont constaté plusieurs problèmes de communication. Souvent, les utilisateurs ne fournissaient pas aux chatbots les informations nécessaires pour identifier correctement leur problème de santé. À l'inverse, les systèmes d'IA répondaient fréquemment par un mélange d'informations pertinentes et erronées, et les utilisateurs avaient du mal à faire la distinction.

L'étude, menée en 2024, n'a pas utilisé les versions les plus récentes des chatbots, notamment les nouvelles offres comme ChatGPT Health.

Un deuxième avis d'IA peut être utile

La capacité des chatbots à poser des questions complémentaires et à obtenir des informations clés auprès des utilisateurs est un domaine où Wachter voit des marges de progression.

« Je pense que c'est à ce moment-là que ça deviendra vraiment intéressant, lorsque les outils deviendront un peu plus "médicaux" dans leur façon d'interagir avec les patients », a déclaré Wachter.

Pour l'instant, une façon d'avoir davantage confiance dans les informations que vous recevez est de consulter plusieurs chatbots, un peu comme si vous demandiez un deuxième avis à un autre médecin.

« Il m'arrive de soumettre des informations à ChatGPT et à Gemini », a déclaré Wachter, en faisant référence à l'outil d'IA de Google. « Et lorsqu'ils concordent, je suis un peu plus rassuré quant à la validité de la réponse. »

[zombify_post]


Like it? Share with your friends!

0

0 Comments

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *