in

L’IA peut-elle devenir l’arme fatale de la concurrence déloyale ?

IA, GEO et fausses informations

Une enquête menée il y a quelques jours révèle une faille inquiétante dans le fonctionnement des modèles de langage. Grâce à une technique baptisée « GEO négatif » (Generative Engine Optimization), des acteurs malveillants pourraient manipuler les réponses des IA pour détruire la réputation d’un concurrent. Si les modèles les plus avancés font preuve de scepticisme, l’expérience démontre qu’il est désormais possible d’influencer certains systèmes en publiant massivement de fausses informations sur des sites tiers.

La compétition acharnée du système capitaliste pousse en effet environ une entreprise sur cinq à envisager des actes de sabotage

Avec l’avènement des IA comme source principale d’information, ces intentions malveillantes trouvent un nouveau terrain de jeu. 

Et le véritable enjeu est aujourd’hui d’orienter la vérité générée par les algorithmes pour nuire à autrui.

L’expérience « Fred Brazeal » ou la fabrique du mensonge numérique

Pour tester la perméabilité des modèles d’IA à la désinformation, l’agence Reboot Online a créé de toutes pièces un personnage fictif nommé Fred Brazeal, totalement absent du web.

Les chercheurs ont ensuite publié des allégations diffamatoires sur une poignée de sites tiers reconnus pour leur ancienneté et leur visibilité.

L’objectif était d’observer si, en interrogeant régulièrement onze modèles différents, ces affirmations non fondées finiraient par être intégrées dans les réponses officielles des IA.

Cette méthode, qui ne repose pas sur le piratage mais sur l’influence sémantique, simule une campagne de dénigrement orchestrée par un concurrent.

YouTube video

Des résultats contrastés selon la maturité des modèles

Après quelques semaines d’incubation, les résultats ont confirmé la faisabilité du sabotage, tout en révélant de fortes disparités entre les plateformes. 

Le moteur de recherche conversationnel Perplexity s’est montré le plus vulnérable. Cela en citant à plusieurs reprises les sites de test et intégrant les éléments de discours négatifs dans ses réponses, bien qu’avec une certaine prudence de formulation. 

De son côté, ChatGPT d’OpenAI a parfois fait remonter les contenus, mais a manifesté un scepticisme manifeste en remettant en question la crédibilité des sources. 

La majorité des autres modèles testés, quant à eux, n’ont toutefois fait aucune référence au profil de test.

Cela prouve que l’efficacité du GEO négatif reste, pour l’instant, limitée aux systèmes les plus dépendants du web en temps réel.

L’autorité et la confiance comme seuls remparts durables

Selon Oliver Sissons, directeur de la recherche chez Reboot Online, cette expérience prouve que si le sabotage par l’IA est techniquement possible dans des conditions spécifiques, il se heurte à la montée en puissance des signaux de confiance

De leutr côté, les modèles les plus sophistiqués apprennent à détecter l’absence de corroboration par des sources faisant autorité. 

Et à long terme, la visibilité et la réputation au sein des écosystèmes d’IA ne devraient pas reposer sur des tactiques isolées de faible qualité. Mais davantage sur une autorité réelle et vérifiable.

Le défi pour les entreprises en 2026 sera donc de construire une présence numérique si solide qu’elle puisse résister aux tentatives de distorsion algorithmique.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !