ChatGPT Health et la gestion des urgences médicales : une étude alarmante met en lumière des lacunes

Une étude préoccupante sur ChatGPT Health
Publié le 03 mars 2026 par Hélène Bour
ChatGPT Health, l'outil d'intelligence artificielle développé par OpenAI, soulève des inquiétudes quant à sa capacité à évaluer et gérer les urgences médicales. Une nouvelle étude, récemment publiée dans le numéro du 23 février 2026 de la revue Nature Medicine, met en avant des résultats préoccupants.
Un outil en pleine expansion mais pas infaillible
Il est indéniable que l'intelligence artificielle (IA) révolutionne le domaine de la santé, notamment dans les domaines de l'imagerie médicale et du dépistage. Cependant, des zones d'ombre subsistent lorsqu'il s'agit de déterminer l'urgence d'une situation médicale. Selon cette récente étude, ChatGPT Health pourrait induire les utilisateurs en erreur quant à la gravité de leur état de santé, mettant ainsi en péril leur bien-être.
Le Dr Isaac S. Kohane, directeur du département d'informatique biomédicale à la faculté de médecine de Harvard, souligne : "Les systèmes d'intelligence artificielle sont devenus le premier réflexe des patients pour obtenir des conseils médicaux, mais en 2026, leur fiabilité est moindre aux extrêmes cliniques, là où le jugement fait la différence entre les urgences manquées et les alarmes inutiles".
Une utilisation croissante sans évaluation rigoureuse
Quelques semaines après son lancement, OpenAI a rapporté que près de 40 millions de personnes utilisent quotidiennement ChatGPT Health pour des conseils concernant leur santé, notamment pour décider s'il est nécessaire de consulter en urgence. Toutefois, la fiabilité et la sécurité des conseils fournis n'ont pas été évaluées de manière indépendante.
Le Dr Ashwin Ramaswamy, auteur principal de l'étude et professeur d'urologie à l'École de médecine Icahn du Mont Sinaï, déclare : "Ce manque a motivé notre étude. Nous souhaitions répondre à une question fondamentale : si une personne se trouve face à une véritable urgence médicale et se tourne vers ChatGPT Health pour obtenir de l'aide, le système lui indiquera-t-il clairement de se rendre aux urgences ?" Malheureusement, les résultats ne sont pas encourageants.
Des incohérences inquiétantes dans les recommandations
Les chercheurs ont observé des incohérences dans les réponses fournies par l'outil. Des alertes conseillant d'appeler les urgences se déclenchaient dans des scénarios à faible risque, tandis qu'elles étaient absentes dans des contextes bien plus graves, notamment lors d'expressions de pensées suicidaires. Girish N. Nadkarni, coauteur de l'étude, déplore : "Nous nous attendions à une certaine variabilité, mais ce que nous avons observé allait bien au-delà de l'incohérence. Les alertes du système étaient inversées par rapport au risque clinique".
Des performances mitigées dans les situations d'urgence
Le Dr Ramaswamy explique : "ChatGPT Health a bien fonctionné dans les situations d'urgence classiques comme un AVC ou une réaction allergique grave. Cependant, il a rencontré des difficultés dans des situations plus nuancées où le danger n'est pas immédiatement évident, et c'est souvent dans ces cas que le jugement clinique est primordial".
Par exemple, dans un scénario d'asthme, le système a identifié des signes avant-coureurs d'insuffisance respiratoire mais a malgré tout conseillé d'attendre avant de consulter un médecin en urgence.
Des recommandations claires pour la santé des utilisateurs
Au vu de ces résultats, les scientifiques recommandent de consulter directement un médecin, plutôt que de se fier à ChatGPT ou à tout autre outil basé sur l'IA, lorsque l'état de santé s'aggrave ou que des symptômes préoccupants apparaissent, tels que :
- Essoufflement
- Douleurs thoraciques
- Réactions allergiques sévères
- Idées suicidaires
En cas de pensées suicidaires, il est crucial de contacter le numéro d'urgence dédié, qui est le 31 14 en France.
Un appel à la prudence et à la responsabilité
Les chercheurs ne conseillent pas d'abandonner les outils de santé basés sur l'IA, mais insistent sur la nécessité de connaître leurs limites et de les utiliser avec discernement. La santé des utilisateurs doit toujours primer, et il est essentiel de faire preuve de prudence dans l'utilisation de ces technologies émergentes.
Sources
- Ramaswamy, A., Tyagi, A., Hugo, H. et al. ChatGPT Health performance in a structured test of triage recommendations. Nat Med (2026). https://doi.org/10.1038/s41591-026-04297-7
- "Research identifies blind spots in AI medical triage", Eurekalert, 24/02/26.


Résumé rapide
Une nouvelle étude publiée dans <strong>Nature Medicine</strong> met en lumière les lacunes de <strong>ChatGPT Health</strong> dans la gestion des urgences médicales, soulignant des incohérences dans les recommandations. Les chercheurs exhortent à consulter des professionnels de santé en cas de symptômes inquiétants et à utiliser ces outils d'IA avec prudence.
Bulletin d'information
Recevez les dernières mises à jour et histoires directement dans votre boîte de réception.





