Si ChatGPT était déjà interdit pour la rédaction des notes médicales, la restriction concerne maintenant la médecine générale.
Les modèles de langages, dont ChatGPT, couvre désormais plusieurs secteurs, dont la médecine. Mais ABC a mené une enquête sur l’utilisation de l’IA en médecine et les résultats viennent d’être publiés. Le rapport se porte sur l’utilisation et l’interdiction de ChatGPT dans la rédaction des notes médicales au sein d’un service de santé de Perth.
Interdiction immédiate de l’utilisation de ChatGPT
D’après le DG du South Metropolitan Health Service de Peth, l’utilisation de ChatGPT ne garantit pas la confidentialité des patients. Il ajoute également qu’il y a de fortes chances que la sécurité des données soit compromise. C’est la raison pour laquelle il a décidé de cesser immédiatement toute utilisation de l’intelligence artificielle. Notamment ChatGPT, mais aussi toutes les activités pouvant inclure des renseignements sur les patients.
De son côté, le Dr David Adam, membre du comité d’experts du RACGP, ajoute qu’il est extrêmement imprudent d’utiliser les LLM, dont ChatGPT, dans la rédaction des notes médicales. Il pense même que l’on ne doit pas utiliser ces outils de manière courante en médecine générale.
Une pratique imprudente
Il y a un aspect crucial en termes de confidentialité pour les médecins qui utilisent ChatGPT et les LLM. Dans la majorité des cas, les politiques de confidentialité de ces programmes d’IA mentionnent que les données saisies peuvent être utilisées à des fins de formation supplémentaire. À titre d’exemple, Samsung interdi l’utilisation de ChatGPT pour éviter les risques d’exposition de données confidentielles à des tiers.
Par conséquent, utiliser ChatGPT pour rédiger des notes médicales en supposant que ne pas inclure le nom du patient suffit à préserver leur vie privée est imprudent. Il est donc préférable de ne pas utiliser les LLM, quel que soit le niveau d’attractivité du contenu qu’ils génèrent.
- Partager l'article :