Tu pensais que ChatGPT, Gemini ou Copilot étaient tes nouveaux piliers de l’actualité ? Grosse erreur ! Une étude massive menée par l’UER (Union Européenne de Radio-Télévision) vient de faire voler en éclats le mythe de la fiabilité des IA sur l’actualité.
Quasiment la moitié des réponses de ces super-cerveaux sont, ni plus ni moins, foireuses. Ce n’est pas un simple bug isolé.
C’est un problème systémique qui, avec 45 % d’erreurs relevées, met en péril la confiance dans l’information.
Les chatbots sont des menteurs maladroits
Après avoir fait mouliner 3 000 requêtes d’actualité auprès des principaux assistants, 22 médias publics, dont la BBC et Radio France, ont rendu un verdict sans appel.
Selon eux, l’IA, notre petit génie tant célébré, n’est qu’un cancre de la véracité. Ils ajoutent même que le taux d’échec est sidérant, avec 45 % des réponses contenant au moins un problème important.
Ce qui est encore plus alarmant, c’est que l’IA se révèle être un véritable faussaire en série. C’est-à-dire qu’une réponse sur cinq présentait des inexactitudes majeures.
Celles-ci incluent des informations obsolètes, des faits déformés ou carrément des détails entièrement inventés.
Pour vous donner un ordre d’idée de la gravité, l’étude pointe du doigt Gemini comme le plus mauvais élève.
Le modèle affiche un score lamentable de 76 % de problèmes significatifs, souvent causés par une incapacité à citer correctement les sources, ajoutant confusion et opacité à l’erreur factuelle.
L’UE a adopté le European Media Freedom Act. Officiellement, c’est pour protéger la liberté des médias. Mais depuis le 8 août 2025, Bruxelles décide qui est reconnu comme “média”… et qui ne l’est pas. Un changement majeur pour l’avenir de l’information en Europe.#UE #media… pic.twitter.com/Oor5ZePSnQ
— Charbellakis (@charbofficiel) August 10, 2025
Mais pourquoi tant d’erreurs ?
Le nœud du problème réside dans l’architecture même de ces LLM (Large Language Models).
Vous devez comprendre que l’IA générative n’est pas conçue pour être une encyclopédie de la réalité. Il sert pour prédire la suite la plus plausible d’un texte.
Imaginez le cerveau de l’IA comme une bibliothèque immense et chaotique. Quand on lui poses une question sur un fait récent, au lieu de consulter le dernier journal vérifié, elle se contente de mélanger des fragments de textes anciens. Ou encore des notes griffonnées et des bouts d’articles de blog pour te donner une réponse qui sonne juste.
Ce processus est ce que l’on nomme l’hallucination. Une situation dans laquelle l’IA perd la boussole temporelle et factuelle.
Et quand l’actualité bouge vite, l’IA ne sait plus ordonner le temps. Elle fait un mauvais collage de faits hétéroclites, créant ainsi un monstre d’information qui, s’il est fluide dans sa formulation, n’en est pas moins un leurre.
Elle agit en effet comme un poète essayant de te réciter un article de loi : le style est là, mais la précision fait défaut.
La menace est systémique
Ce rapport de l’UER est d’autant plus préoccupant que l’IA est en pleine phase d’infiltration dans nos habitudes de consommation médiatique.
L’étude du Reuters Institute pour 2025 le confirme. Le public, et tout particulièrement la jeune génération, commence à se fournir à la pompe IA.
On parle déjà de 7 % des internautes qui s’informent via ces assistants, un chiffre qui s’envole à 15 % chez les moins de 25 ans.
Face à la montée des plateformes sociales et vidéo, les chatbots s’imposent comme un nouvel intermédiaire, et ces chiffres sont destinés à exploser. Ce qui rend la problématique des erreurs factuelles d’autant plus critique.
Saviez-vous que l’#IA peut inventer de fausses études totalement crédibles ?
— UNESCO en français (@UNESCO_fr) October 25, 2025
Ces fabrications, souvent plausibles, peuvent induire en erreur les décideurs, les journalistes & le grand public.
L’IA peut se tromper. Restez vigilants !https://t.co/OwtNz2ZpRW pic.twitter.com/v4ERM4AAxa
Petit à petit, nous nous passons du média original
L’UER insiste sur la notion de risque systémique. Pourquoi ? Parce que l’assurance et la rapidité de la réponse du bot créent une illusion de fiabilité.
Cette fluidité nous incite à ne pas vérifier l’information, d’autant plus que les bots ont souvent cette capacité à gommer les nuances. Mais le danger est double.
Si on obtient une réponse instantanée et apparemment complète via l’IA, on se passe du média original, ce qui coupe le lien vital entre le public et les sources d’information fiables.
Ce faisant, l’IA assèche le financement des journalistes qui effectuent le travail long et coûteux de vérification.
Et si 45 % des réponses des grands modèles sont défaillantes, ces erreurs sont diffusées à l’échelle mondiale en quelques secondes, dans toutes les langues.
Au final, cela va créer un dangereux tsunami de désinformation centralisée et uniformisée.
Alors, la prochaine fois que votre bot préféré vous donne une info sur un fait d’actualité, souvenez-vous du score de 45 % et faites l’effort de toujours vérifier les informations. La lutte contre la désinformation commence par votre esprit critique.
- Partager l'article :

