in ,

Faux liens, citations inventées, l’IA pourrait vous désinformer sans que vous le sachiez

Peut-on encore faire confiances aux recherches IA

Les moteurs de recherche propulsés par l’intelligence artificielle (IA) promettent de révolutionner notre manière d’accéder à l’information. Mais une récente étude du Tow Center for Digital Journalism remet sérieusement cette promesse en question. Les résultats soulignent des failles majeures dans la manière dont ces outils citent, interprètent et présentent les sources journalistiques.

L’étude révèle que les IA génératives ne se contentent pas de fournir des résultats imprécis. Elles fabriquent aussi des citations, déforment la provenance des contenus et détournent le trafic web au détriment des éditeurs d’origine. Ce constat pose un véritable problème de confiance et soulève des enjeux critiques pour l’avenir du journalisme.

YouTube video

Des résultats étonnamment erronés… même en version payante

Pour évaluer la performance des moteurs IA, les chercheuses Klaudia Jaźwińska et Aisvarya Chandrasekar ont testé huit modèles, dont ChatGPT, Perplexity, Gemini et Grok. Elles ont analysé 1 600 résultats de recherche à partir d’extraits issus de 20 éditeurs reconnus. Les IA devaient correctement nommer l’éditeur, identifier le texte source et fournir une URL précise. Mais le graphique de notation, dominé par le rouge, révèle un taux d’erreur massif. Perplexity s’en sort mieux, tandis que Grok et Gemini peinent à livrer des réponses fiables.

Les IA préfèrent inventer que d’admettre leur ignorance

L’un des constats les plus frappants de l’étude concerne la tendance des IA à produire de fausses réponses plutôt que d’avouer leur incapacité à répondre. Plutôt que de laisser un vide, elles inventent des citations ou redirigent vers des versions syndiquées d’articles. Pire encore, les versions premium des outils testés se montrent moins précises que leurs équivalents gratuits. Cela remet en cause l’idée selon laquelle payer garantit une information plus fiable. En réalité, la confusion est parfois plus grande avec les offres payantes.

YouTube video

Un impact direct sur le journalisme et la transparence

Cette falsification des citations n’est pas seulement problématique d’un point de vue technique. Elle a un impact concret sur le trafic web, l’engagement des lecteurs et la viabilité économique des éditeurs. Sans liens directs, les pages vues et les abonnements chutent. De plus, l’absence de transparence est généralisée. Aucune IA ne précise de manière claire les sources qu’elle utilise, ni n’indique si un contenu est vérifié ou non. Cette opacité alimente la désinformation et nuit à la confiance du public dans les contenus produits.

Les entreprises d’IA peu enclines à réagir

Face à ces constats, les chercheuses ont contacté toutes les entreprises concernées. Seules OpenAI et Microsoft ont répondu, sans apporter de solutions concrètes. Cette inertie illustre le manque de volonté de traiter les critiques sérieusement. Les auteurs du rapport rappellent que les outils IA ne peuvent être considérés comme fiables sans une réelle rigueur journalistique. Référencer les sources, indiquer les auteurs et admettre ses limites sont des impératifs encore largement ignorés.

Vers une IA plus responsable (et vérifiable) ?

L’étude appelle à une refonte de la recherche IA, avec plus de transparence, de précision et de responsabilité. En l’état, ces outils compromettent l’intégrité de l’information et affaiblissent les fondements du journalisme de qualité. En attendant de réelles améliorations, les utilisateurs doivent faire preuve d’esprit critique, vérifier les sources manuellement et se méfier des résumés trop parfaits. Car l’illusion de fiabilité peut cacher une désinformation subtile mais dangereuse.

YouTube video

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *