in ,

Utilisé dans les hôpitaux, cet outil d’OpenAI met en danger les patients en inventant des choses

Whisper, l’outil de transcription d’, gagne du terrain dans les hôpitaux américains. Les cliniciens l’utilisent déjà pour retranscrire les consultations médicales avec les patients.

YouTube video

Cependant, des chercheurs tirent la sonnette d’alarme : l’IA peut générer des « hallucinations ». Ces erreurs se produisent lorsque Whisper invente des informations jamais exprimées, ce qui peut avoir des conséquences lourdes.

Whisper est disponible sur les plateformes cloud de et . Microsoft prévient toutefois que l’outil ne doit pas être employé dans des contextes critiques. Malgré cette recommandation, plusieurs établissements de santé l’intègrent pour leurs activités. Or, les chercheurs ont détecté des dérapages. L’IA produit parfois des propos racistes ou des traitements inexistants, ce qui soulève des inquiétudes.

Des études récentes montrent que Whisper manque de fiabilité. Un chercheur de l’Université du Michigan a constaté que 8 transcriptions sur 10 contiennent des hallucinations. De plus, un ingénieur en apprentissage a observé des erreurs dans la moitié des 100 heures qu’il a analysées. Un autre développeur a noté la présence d’hallucinations dans presque toutes les 26 000 transcriptions qu’il a réalisées avec Whisper.

Whisper OpenAI

L’outil reste très populaire malgré ses limites

Whisper figure parmi les outils de reconnaissance vocale les plus téléchargés sur HuggingFace. En octobre, il a atteint 4,2 millions de téléchargements. Pourtant, une des documents de TalkBank, un référentiel de l’université Carnegie Mellon, montre que 40 % des hallucinations peuvent s’avérer dangereuses. Par exemple, l’IA a transformé un simple commentaire sur un groupe d’individus en mention raciale. Dans un autre cas, Whisper a inventé un médicament fictif, appelé « antibiotiques hyperactivés ».

De nombreux experts s’inquiètent de l’utilisation excessive de Whisper sans prise en compte de ses limites. William Saunders, ancien employé d’OpenAI, souligne le danger de l’intégrer aveuglément à d’autres systèmes. « Il est risqué de se fier à cet outil sans connaître ses défauts », affirme-t-il. Alondra Nelson, professeure à Princeton, avertit qu’une telle peut mener à de graves erreurs médicales, comme un mauvais diagnostic.

YouTube video

Les hallucinations, un problème pour l’ensemble de l’industrie

Le problème des hallucinations touche d’autres modèles d’IA. Je me rappelle avoir vu, plus tôt cette année, que l’IA de Google avait conseillé d’utiliser de la colle pour fixer du fromage sur une pizza, en reprenant une blague sarcastique trouvée sur Reddit. , PDG d’, a également exprimé des réserves. Il craint que ces erreurs persistent dans les futurs produits d’IA de la firme.

Face à ces risques, OpenAI déconseille d’utiliser Whisper pour des décisions sensibles. La moindre erreur pourrait entraîner des conséquences graves, surtout dans le secteur médical. Pendant ce temps, les entreprises continuent de développer des technologies similaires. Le défi reste entier : il est urgent de trouver une solution durable pour prévenir ces hallucinations.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *