Whisper, l’outil de transcription d’OpenAI, gagne du terrain dans les hôpitaux américains. Les cliniciens l’utilisent déjà pour retranscrire les consultations médicales avec les patients.
Cependant, des chercheurs tirent la sonnette d’alarme : l’IA peut générer des « hallucinations ». Ces erreurs se produisent lorsque Whisper invente des informations jamais exprimées, ce qui peut avoir des conséquences lourdes.
Whisper est disponible sur les plateformes cloud de Microsoft et Oracle. Microsoft prévient toutefois que l’outil ne doit pas être employé dans des contextes critiques. Malgré cette recommandation, plusieurs établissements de santé l’intègrent pour leurs activités. Or, les chercheurs ont détecté des dérapages. L’IA produit parfois des propos racistes ou imagine des traitements inexistants, ce qui soulève des inquiétudes.
Des études récentes montrent que Whisper manque de fiabilité. Un chercheur de l’Université du Michigan a constaté que 8 transcriptions sur 10 contiennent des hallucinations. De plus, un ingénieur en apprentissage automatique a observé des erreurs dans la moitié des 100 heures qu’il a analysées. Un autre développeur a noté la présence d’hallucinations dans presque toutes les 26 000 transcriptions qu’il a réalisées avec Whisper.
L’outil reste très populaire malgré ses limites
Whisper figure parmi les outils de reconnaissance vocale les plus téléchargés sur HuggingFace. En octobre, il a atteint 4,2 millions de téléchargements. Pourtant, une analyse des documents de TalkBank, un référentiel de l’université Carnegie Mellon, montre que 40 % des hallucinations peuvent s’avérer dangereuses. Par exemple, l’IA a transformé un simple commentaire sur un groupe d’individus en mention raciale. Dans un autre cas, Whisper a inventé un médicament fictif, appelé « antibiotiques hyperactivés ».
De nombreux experts s’inquiètent de l’utilisation excessive de Whisper sans prise en compte de ses limites. William Saunders, ancien employé d’OpenAI, souligne le danger de l’intégrer aveuglément à d’autres systèmes. « Il est risqué de se fier à cet outil sans connaître ses défauts », affirme-t-il. Alondra Nelson, professeure à Princeton, avertit qu’une telle technologie peut mener à de graves erreurs médicales, comme un mauvais diagnostic.
Les hallucinations, un problème pour l’ensemble de l’industrie
Le problème des hallucinations touche d’autres modèles d’IA. Je me rappelle avoir vu, plus tôt cette année, que l’IA de Google avait conseillé d’utiliser de la colle pour fixer du fromage sur une pizza, en reprenant une blague sarcastique trouvée sur Reddit. Tim Cook, PDG d’Apple, a également exprimé des réserves. Il craint que ces erreurs persistent dans les futurs produits d’IA de la firme.
Face à ces risques, OpenAI déconseille d’utiliser Whisper pour des décisions sensibles. La moindre erreur pourrait entraîner des conséquences graves, surtout dans le secteur médical. Pendant ce temps, les entreprises continuent de développer des technologies similaires. Le défi reste entier : il est urgent de trouver une solution durable pour prévenir ces hallucinations.
- Partager l'article :