ChatGPT Health : des résultats préoccupants concernant les urgences médicales

ChatGPT Health : des résultats préoccupants concernant les urgences médicales
\nPublié le 03 mars 2026 par Hélène Bour
\nL'outil d'intelligence artificielle (IA) ChatGPT Health ne serait pas à la hauteur lorsqu'il s'agit d'évaluer et de gérer des urgences médicales. Une nouvelle étude s'alarme des conséquences potentielles de son utilisation. Cette étude a été publiée en urgence dans le numéro du 23 février 2026 de la revue Nature Medicine (Source 1).
\n\nUne révolution en santé, mais des risques persistants
\nL'IA est en train de transformer le domaine de la santé, notamment dans les domaines de l'imagerie et du dépistage. Cependant, des lacunes subsistent dans l'évaluation des situations médicales urgentes. Selon la recherche, ChatGPT Health pourrait mal orienter les utilisateurs face à des problèmes de santé, omettant de signaler le caractère urgent de certaines situations et compromettant ainsi la santé des utilisateurs.
\n\nLes avertissements des experts
\nLe Dr Isaac S. Kohane, directeur du département d'informatique biomédicale à la faculté de médecine de Harvard, a exprimé ses préoccupations : « Les systèmes d'intelligence artificielle sont devenus le premier réflexe des patients pour obtenir des conseils médicaux, mais en 2026, leur fiabilité est moindre aux extrêmes cliniques, là où le jugement fait la différence entre les urgences manquées et les alarmes inutiles. » (Source 2)
Une adoption massive sans évaluation indépendante
\nQuelques semaines après son lancement, OpenAI, la société derrière ChatGPT Health, a rapporté que près de 40 millions de personnes utilisaient cet outil quotidiennement pour obtenir des conseils sur leur santé, y compris pour savoir s'il est nécessaire de consulter en urgence. Toutefois, la fiabilité et la sécurité des conseils fournis n'ont pas été évaluées de manière indépendante, ce qui a incité les chercheurs à mener cette étude.
\n\nUne étude révélatrice
\nLe Dr Ashwin Ramaswamy, auteur principal de l'étude et professeur d'urologie à l'École de médecine Icahn du Mont Sinaï à New York, a déclaré : « Nous souhaitions répondre à une question fondamentale : si une personne est confrontée à une véritable urgence médicale et se tourne vers ChatGPT Health pour obtenir de l'aide, le système lui indiquera-t-il clairement de se rendre aux urgences ? » Malheureusement, les résultats ne sont pas encourageants.
\n\nDes incohérences inquiétantes
\nLes chercheurs ont découvert des incohérences dans les réponses de l'outil. Des alertes invitant à appeler les urgences apparaissaient dans des scénarios à faible risque, tandis qu'elles étaient absentes dans des contextes plus graves, comme lors d'expressions claires d'intentions suicidaires. Le Dr Girish N. Nadkarni, coauteur de l'étude, a déclaré : « Nous nous attendions à une certaine variabilité, mais ce que nous avons observé allait bien au-delà de l'incohérence. Les alertes du système étaient inversées par rapport au risque clinique. »
\n\nPerformance dans les situations d'urgence classiques
\nIl est important de noter que le Dr Ramaswamy a reconnu que ChatGPT Health a bien fonctionné dans des situations d'urgence classiques, telles qu'un AVC ou une réaction allergique grave. Cependant, il a également souligné que l'outil a des difficultés dans des situations plus nuancées où le danger n'est pas immédiatement évident. Par exemple, dans le cadre d'un cas d'asthme, le système a identifié des signes avant-coureurs d'insuffisance respiratoire, mais a conseillé d'attendre au lieu de consulter un médecin en urgence.
\n\nRecommandations des chercheurs
\nFace à ces constatations, les scientifiques recommandent de consulter directement un médecin plutôt que de se fier à ChatGPT ou à tout autre outil à base d'IA lorsque l'état s'aggrave ou que des symptômes inquiétants se manifestent (comme l'essoufflement, les douleurs thoraciques ou les réactions allergiques graves). En cas de pensées suicidaires, il est impératif d'appeler le numéro d'urgence dédié, à savoir le 31 14 en France.
\n\nConclusion : utiliser l'IA avec prudence
\nLes chercheurs ne préconisent pas d'abandonner les outils de santé à base d'IA, mais soulignent l'importance de connaître leurs limites et de les utiliser avec discernement. Les conseils médicaux obtenus via ces outils doivent être considérés comme complémentaires et non comme des substituts à une consultation médicale en personne.
\n![Comment l'IA révolutionne la gestion d'entreprise [Guide] | Sage Advice ...](https://tourisme-lafautesurmer.fr/images/1772886244274_4826cc4c_2.webp)

Résumé rapide
Une étude récente publiée dans <em>Nature Medicine</em> met en lumière les lacunes de ChatGPT Health dans l'évaluation des urgences médicales. Bien que cet outil d'IA soit largement utilisé pour des conseils de santé, il présente des incohérences inquiétantes, notamment dans des situations critiques. Les experts conseillent de privilégier la consultation d'un médecin en cas de doute et d'être conscient des limites des outils d'IA.
Bulletin d'information
Recevez les dernières mises à jour et histoires directement dans votre boîte de réception.





