in

La vérité sur les hallucinations de l’IA, et si ce n’était pas un bug ?

Hallucinations de l'IA n'est pas un bug

Certains modèles de raisonnement, dont ceux d’OpenAI, sont désormais plus intelligents. Mais cela ne veut pas dire que les réponses qu’ils génèrent sont tout à fait vraies. Les hallucinations de l’IA continuent toujours d’exister et apparemment, il ne s’agit pas d’un bug, mais d’une étape indispensable.

Ce sont en effet les modèles o3 et o4-mini d’OpenAI qui produisent davantage d’hallucinations ou de réponses erronées.

Inquiets de ce que ce pourrait produire, on a fait quelques tests avec le benchmark PersonQA et effectivement, o3 affiche un taux d’erreur de 33 % contre 48 % pour o4-mini.

Par contre, o3 semble plus précis dans ses réponses. Mais comme cette précision s’accompagne d’un taux élevé de fausses affirmations, l’évolution des modèles d’OpenAI est paradoxale.

YouTube video

Les vrais dangers des hallucinations de l’IA

Les experts remettent d’ailleurs en question la fiabilité des LLM qui alimentent les chatbot IA tels que ChatGPT.

Je dirai même que malgré leur popularité et la qualité de leurs réponses, ces outils d’intelligence artificielle représentent un vrai danger sans que nous nous en rendions compte.

Eleanor Watson, ingénieure en éthique de l’intelligence artificielle à la Singularity University et membre de l’IEEE nous donne son avis.

« L’un des plus grands dangers des modèles d’IA générative réside dans leur capacité à formuler des erreurs avec aplomb. Lorsqu’un système est capable de produire de fausses affirmations avec le même ton fluide, structuré et convaincant que pour des contenus exacts, il devient difficile pour l’utilisateur de distinguer le vrai du faux », a-t-elle ajouté.

Ces hallucinations, bien que l’on ne puisse pas vraiment les empêcher, souligne la nécessité d’une évaluation et d’une supervision de toutes les informations que nous donnent les IA.

Et si l’hallucination était la clé de la créativité des IA ?

À titre d’information, un modèle de raisonnement génère ses réponses en décomposant le problème en plusieurs éléments plus simples à résoudre. Et c’est à partir de là qu’il propose des solutions parfois inédites.

Contrairement aux modèles purement statistiques, qui se contentent d’estimer la réponse la plus probable, ces systèmes tentent de raisonner comme le ferait un humain, avec une approche stratégique et souvent créative.

Et c’est précisément là qu’entre en jeu ce que l’on appelle une hallucination. Loin d’être une défaillance technique, ce phénomène est en réalité une composante essentielle de la créativité artificielle.

Pour imaginer de nouvelles solutions, pour inventer et pour sortir des sentiers battus, l’IA doit de temps en temps produire du contenu qui n’existe pas encore dans les données qu’elle a apprises.

Comme l’explique Sohrob Kazerounian, chercheur en IA chez Vectra AI, « l’hallucination est une fonction, pas un bug ». Il résume ce paradoxe avec une formule frappante : « Tout ce qu’un modèle génère est une hallucination. Certaines sont simplement vraies. »

Sans cette capacité à halluciner intelligemment, une IA serait limitée à régurgiter ce qu’elle a vu. Notamment du code déjà existant, des connaissances déjà publiées, des devoirs déjà corrigés.

Elle serait incapable d’écrire les paroles d’un album fictif mêlant Snoop Dogg à Bob Dylan, ou d’imaginer une molécule jamais testée auparavant.

Les hallucinations de l’IA sont-elles trop crédibles pour être remises en question ?

Les hallucinations générées par l’IA soulèvent des inquiétudes majeures, particulièrement lorsqu’il est question de délivrer des informations fiables et précises.

Ce phénomène devient d’autant plus préoccupant lorsque les utilisateurs prennent les réponses de l’IA pour argent comptant, sans vérification préalable.

Et le risque est particulièrement accentué dans des secteurs sensibles comme la santé, le droit ou la finance, où l’exactitude des faits est primordiale.

Comme le souligne Watson, même si les modèles de nouvelle génération tendent à faire moins d’erreurs manifestes, ils n’en restent pas moins sujets à des imprécisions plus fines et plus difficiles à détecter.

À long terme, ces dérives peuvent nuire à la crédibilité des systèmes d’IA, notamment lorsqu’un contenu erroné, mais crédible est utilisé dans des contextes sérieux.

Le paradoxe est que plus les modèles deviennent sophistiqués, plus leurs erreurs se fondent dans des raisonnements cohérents.

« Le contenu généré est désormais souvent enveloppé dans des explications plausibles et bien structurées », explique Watson.

C’est justement là que ça devient un vrai danger puisque les utilisateurs peuvent ne plus remarquer les inexactitudes et interpréter ces réponses comme des vérités absolues.

Et le défi ne réside plus seulement dans la détection d’erreurs évidentes, mais dans l’identification de biais ou de distorsions plus discrets, perceptibles uniquement après une analyse approfondie.

YouTube video

Une tendance inquiétante et encore inexpliquée

Kazerounian partage cette inquiétude. Selon lui, contrairement à l’idée répandue selon laquelle les hallucinations de l’IA devraient diminuer avec les progrès technologiques, on observe en réalité une tendance inverse.

« Les derniers modèles de raisonnement avancé semblent halluciner encore plus que les versions précédentes, pourtant plus simples. Et à ce jour, aucune explication claire et partagée ne permet de comprendre ce phénomène », a-t-il affirmé.

Dario Amodei, PDG d’Anthropic, a, lui aussi, insisté sur ce point dans un récent article. Il souligne notre manque de visibilité sur les mécanismes décisionnels des IA génératives.

« Quand une IA résume un document financier, nous sommes incapables d’expliquer précisément pourquoi elle choisit tel mot plutôt qu’un autre. Ou pourquoi elle commet soudainement une erreur malgré sa précision habituelle », écrit-il.

Quoi qu’il en soit, les conséquences de ces hallucinations ne sont plus théoriques. Elles ont déjà un impact tangible. 

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *