in , ,

ChatGPT gratuit peut générer des réponses inexactes sur les médicaments

ChatGPT est une véritable révolution numérique. Ce chatbot dopé par l’IA fournit des réponses instantanées à toutes vos questions. Mais, ces informations qu’il fournit sont-elles fiables ? Il s’avère que ce n’est pas le cas lorsqu’on sollicite la version gratuite de ChatGPT pour des informations sur les médicaments. C’est ce que révèle une étude menée par une équipe de recherche du College of Pharmacy de l’Université de Long Island. Les résultats démontrent que la plupart de ses réponses sont soit inexactes, soit incomplètes.

29 réponses non satisfaisantes sur les 39 questions posées

Cette étude menée par Sara Grossman consistait à poser 39 questions liées aux médicaments à ChatGPT. Son équipe a aussi sollicité l’expertise de pharmaciens, leur demandant de répondre au même ensemble de questions pour tester l’efficacité de l’intelligence artificielle. Les questions étaient basées sur des demandes de renseignements réelles que le service d’informations sur les médicaments de l’établissement a reçu entre janvier 2022 et avril 2023.

Le résultat est loin d’être réjouissant. ChatGPT a livré des réponses qui se révélaient soient inexactes, soient incomplètes, voire les deux à la fois, pour 29 questions. Les chercheurs ont aussi demandé au chatbot de fournir des références pour étayer ses réponses. Il n’en a fourni que pour huit réponses. Par ailleurs, celles-ci étaient inventées de toutes pièces par le chatbot.

Des suggestions potentiellement dangereuses

Une des questions concernait une possible interaction médicamenteuse entre le Verapamil, un antihypertenseur et la Paxlovid, une pilule antivirale de Pfizer. ChatGPT a répondu qu’il n’existe aucune interaction entre ces deux médicaments. Cependant, les pharmaciens affirment qu’une prise conjointe de ceux-ci peut causer une chute significative de la pression artérielle.

Une autre question portait sur la conversion des doses entre deux formes distinctes du médicament baclofène, l’une intrathécale et l’autre orale. Ce médicament est prescrit pour soulager les spasmes musculaires. L’équipe dirigée par Grossman a analysé divers cas publiés relatifs à ce sujet. Leur étude révèle l’absence d’une méthode de conversion universelle établie. Les approches varient d’un cas à l’autre. Toutefois, ChatGPT a avancé une méthode de conversion de dose qu’il a simplement imaginée.

Des informations à considérer avec prudence

Face à ces résultats erronés fournis par ChatGPT, Sara Grossman incite les utilisateurs à prendre conscience des limites de cette technologie, surtout dans des domaines aussi sensibles que la santé. C’est d’autant plus crucial que ce robot conversationnel enregistre près de 1,7 milliard de visites dans le monde, rien qu’au cours du mois d’octobre. Les utilisateurs doivent traiter avec prudence les conseils médicamenteux et vérifier l’exactitude des réponses fournies. Pour les patients, il est plus sécurisant de solliciter les conseils de professionnels de santé.

En suivant les conseils du chatbot sur la prise du Verapamil et du Paxlovid, un patient aurait exposé sa santé à un risque grave. De même, si un professionnel avait suivi la méthode de conversion de dose du baclofène fournie par ChatGPT, il aurait obtenu une dose 1 000 fois inférieure au dosage correct. Ce qui aurait entraîné des convulsions ou des hallucinations chez le patient.

Grossman se penchait sur la version gratuite de ChatGPT en raison de son très grand nombre d’utilisateurs. Elle a admis qu’une version payante de l’IA aurait généré des résultats plus fiables étant donné qu’elle intègre des fonctionnalités permettant une navigation sur le web en temps réel.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *