Les chatbots médicaux fausseraient les diagnostics des médecins humains, et cela pourrait nuire à votre santé ! Pourquoi ces modèles d’IA conversationnels mettent de côté les avertissements médicaux et mettent en danger leurs utilisateurs ? Essayons d’en découvrir davantage dans ce qui suit !
Il y a tout juste quelques semaines, l’Université de Stanford avait publié une étude alarmante concernant l’utilisation de l’IA médicale, plus précisément les chatbots médicaux. En effet, la plupart de ces chatbots conversationnels omettent de préciser qu’ils ne sont pas des professionnels de santé lorsque des utilisateurs leur posent des questions d’ordre médical.
Cette tendance est non seulement alarmante mais surtout inquiétante, surtout à l’heure où les chatbots médicaux deviennent de plus en plus convaincants et influents. Explication !
Lorsque les chatbots médicaux font abstraction aux messages de prudence !
Entre 2022 et 2025, le nombre de réponses contenant un avertissement médical explicite du type « Je ne suis pas médecin » ou « Ceci ne remplace pas un avis professionnel » est passé de 26,3 % à moins de 1 % pour les grands modèles de langage (LLM).
Cette étude menée par Sonali Sharma, chercheuse à la Stanford School of Medicine, nous montre qu’à mesure que les modèles de LLMs deviennent plus fluides et plus confiants, plus les mises en garde manquent. De quoi mettre en danger réel les utilisateurs.
Il faut noter que cette tendance est aussi observée auprès des modèles d’IA capables d’analyser les imageries médicales. Si en en 2023, près de 20 % de leurs réponses contenaient un avertissement ; en 2025, ce chiffre chute à 1,05 %.
Bugs ou biais d’entraînement, quels sont les chatbots médicaux les plus touchés par ce problème ?
Pour arriver à cette conclusion, la chercheuse de Stanford School of Medecine avait basé ses études sur 15 générations de modèles d’IA issus d’acteurs majeurs comme OpenAI, Anthropic, Google, DeepSeek ou encore xAI. Ils ont été soumis à 500 questions de santé ainsi qu’à 1 500 images médicales, à l’instar des radiographies de poitrine.
Non seulement les modèles répondaient sans réserve, mais ils allaient parfois jusqu’à fournir des diagnostics potentiels. Le hic dans cette histoire c’est que dans leur réponse, ces modèles ont oubliés de préciser que leurs avis ne remplacent pas celui d’un professionnel qualifié.
Pourquoi ces chatbots médicaux agissent de la sorte jusqu’à nuire à la santé des utilisateurs ?
Jusqu’à ce jour, il est assez difficile de détecter la cause de ce changement de comportement chez les chatbots médicaux. Certains parlent de biais au niveau des données utilisées lors de l’entraînement, d’autres l’attribuent à une évolution liées à l’intelligence artificielle.
Malgré cette situation alarmante qui peut nuire à la santé de leurs utilisateurs, ces chatbots gagnent de plus en plus de terrains dans le secteur médical. Des modèles comme ChatGPT, Gemini ou Claude sont les principaux alliés, non seulement des patients mais aussi des médecins. Certains les adoptent même pour fournir des recommandations de traitement ou pour analyser des résultats médicaux.
Bien que certaines situations aient montré que l’IA pouvait surpasser des médecins humains dans des tâches de diagnostic, elle ne remplace en aucun cas l’expertise de vrais médecins. En effet, cette compétence de l’IA ne suffit pas à garantir une prise en charge sûre.
- Partager l'article :
