Vous pensiez pouvoir faire confiance aux intelligences artificielles pour vos recherches en ligne ? Attendez de voir ce que révèle cette étude sur Grok 3, qui multiplie les erreurs dans presque tous les cas.
Une récente étude menée par le Tow Center for Digital Journalism a révélé des failles inquiétantes. En testant huit moteurs de recherche basés sur l’IA, les chercheurs ont constaté un taux d’erreur global dépassant les 60 %. L’outil le moins performant du groupe est Grok 3, développé par xAI, société d’Elon Musk. Avec 94 % de réponses incorrectes, il se positionne comme le moins fiable du panel examiné.
Les chercheurs ont soumis à ces IA des extraits d’articles pour évaluer leur précision. L’objectif était d’identifier correctement l’éditeur, la date, l’URL et la source d’origine. Dans la majorité des cas, les systèmes se sont trompés sur plusieurs points essentiels. Des erreurs de dates, des noms d’éditeurs mal cités, des articles attribués à des sources erronées sont monnaie courante. Ces résultats remettent en question l’efficacité des IA comme outils de recherche d’actualité.
En plus de répondre de manière inexacte, certains assistants génératifs créent des liens vers des pages inexistantes. Grok 3 et Gemini redirigent vers des URL erronées dans plus de la moitié des cas testés. Ce problème empêche les utilisateurs de vérifier les informations et nuit à la crédibilité globale des outils. Même lorsqu’un article est correctement identifié, le lien fourni est parfois incorrect et renvoie à la page d’accueil plutôt qu’au contenu précis.
Chatbots muets sur leurs erreurs
Les chatbots testés informent rarement l’utilisateur de leur incertitude. Par exemple, ChatGPT a fourni 134 mauvaises réponses sur 200 requêtes. Pourtant, il n’a signalé un manque de confiance que dans 15 cas seulement. Seul Copilot a montré un comportement plus prudent. Ce dernier a refusé de répondre à une majorité des requêtes. Cette transparence partielle aggrave le risque de diffusion d’informations erronées.
Une menace pour les éditeurs de presse
Les moteurs d’IA s’appuient largement sur le contenu des éditeurs de presse, sans toujours respecter les règles de citation. Plusieurs outils analysés attribuent fréquemment les articles à de mauvaises sources. Pire encore, certains chatbots citent des versions publiées par des intermédiaires ou des agrégateurs, plutôt que par le média d’origine. Cette confusion nuit au trafic web des éditeurs et compromet l’accès aux sources fiables.
Même les IA ayant conclu des accords avec certains médias commettent des erreurs de citation. Des outils comme Perplexity et ChatGPT continuent de référencer des sources inexactes, malgré ces partenariats. Cela montre que les accords commerciaux ne suffisent pas à améliorer la qualité des réponses générées.
L’étude souligne que ces dysfonctionnements concernent tous les modèles testés, sans exception. Aucun n’a démontré une maîtrise suffisante du traitement de l’information. Tant que ces IA ne seront pas plus rigoureuses, elles resteront inadaptées à la recherche d’actualités fiables. Pour l’instant, c’est encore à l’utilisateur de trier, vérifier, comparer et corriger.
Et vous, avez-vous déjà repéré ce genre d’erreurs avec Grok 3 ? Partagez vos expériences en commentaire !
- Partager l'article :