L’outil de recherche intégré à ChatGPT, conçu par OpenAI, ouvre de nouvelles perspectives pour l’accès à l’information. Cependant, une enquête menée par le Guardian a mis en lumière des failles inquiétantes.
En exploitant des techniques comme le texte caché sur des pages Web, des acteurs malveillants peuvent manipuler les réponses de l’IA. Ces pratiques permettent de diffuser des informations biaisées ou de promouvoir des produits de manière trompeuse.
Ces vulnérabilités soulèvent des préoccupations importantes. Par exemple, lorsque ChatGPT traite des pages contenant du contenu masqué, ses résumés peuvent refléter des manipulations plutôt que des analyses honnêtes. Cette réalité met en question la fiabilité des outils d’IA dans le domaine de la recherche.
Lors des tests, les chercheurs ont conçu un faux site pour simuler une page produit. Ils ont découvert que ChatGPT pouvait générer des avis exagérément positifs, même en présence de critiques négatives sur la page d’origine.
Par exemple, un texte caché demandant à l’IA de fournir une évaluation favorable a systématiquement influencé les réponses. Cette manipulation reste possible tant que le système ne parvient pas à filtrer efficacement les contenus frauduleux. Jacob Larsen, chercheur chez CyberCX, avertit que des sites spécialement conçus pour exploiter ces failles pourraient émerger rapidement.
Des implications inquiétantes pour la sécurité
Outre les biais dans les réponses, l’outil de recherche de ChatGPT peut aussi exposer les utilisateurs à des risques. Un exemple récent montre qu’un développeur en cryptomonnaie a utilisé un code généré par l’IA. Ce code, manipulé par un tiers malveillant, lui a volé 2 500 dollars en accédant à ses identifiants.
Karsten Nohl, scientifique en chef chez SR Labs, conseille aux utilisateurs de considérer les réponses de ChatGPT comme des suggestions et non comme des vérités absolues. Selon lui, « les LLM possèdent une grande mémoire, mais ils manquent souvent de jugement, ce qui peut poser problème. »
La course à la fiabilité contre la manipulation
Jacob Larsen estime qu’OpenAI doit encore progresser pour concurrencer des acteurs établis comme Google. Néanmoins, il reconnaît que l’équipe de sécurité d’OpenAI travaille activement pour corriger ces faiblesses.
Ces manipulations rappellent les techniques d’empoisonnement SEO, où des pirates modifient des sites pour tromper les moteurs de recherche classiques. Si OpenAI souhaite dominer le marché de la recherche, il devra anticiper ces menaces et combler ses lacunes rapidement.
Pour assurer une adoption sécurisée des outils d’IA, OpenAI devra renforcer ses filtres pour contrer les manipulations. De plus, les utilisateurs doivent rester vigilants en recoupant les informations obtenues, afin d’éviter les pièges des contenus biaisés.
Dans un monde saturé de désinformation, produire des réponses fiables est une priorité. Comme l’a souligné Karsten Nohl, « l’IA doit gagner la course contre les acteurs malveillants pour garantir sa crédibilité ». ChatGPT représente une avancée majeure, mais son plein potentiel dépendra de la capacité d’OpenAI à offrir une expérience sécurisée et sans faille.
- Partager l'article :