Oubliez les emails mal traduits et les fausses pages de connexion statiques. Aujourd’hui, les pirates informatiques utilisent l’intelligence artificielle pour créer des pièges sur mesure qui n’existent pas avant que vous ne cliquiez dessus. L’unité 42 de Palo Alto Networks vient de révéler une nouvelle méthode d’attaque de Phishing qui contourne les antivirus traditionnels et qui infecte les LLM.
L’intelligence artificielle générative devait nous apporter des sites web dynamiques et personnalisés pour améliorer notre expérience utilisateur.
Mais malheureusement, ce rêve technologique est en train de devenir une réalité pour les cybercriminels avant de profiter au grand public.
Des chercheurs en sécurité de l’unité 42 de Palo Alto Networks ont découvert une technique redoutable qui pourrait redéfinir le phishing.
Au lieu de créer une fausse page bancaire et de l’héberger sur un serveur, les pirates utilisent désormais des modèles de langage (LLM) pour générer l’attaque en temps réel.
Cette méthode rend le site malveillant unique pour chaque visiteur, ce qui complique terriblement sa détection.
Une attaque de phishing invisible dans les LLM et qui se construit sous nos yeux
Le fonctionnement de cette nouvelle menace est particulièrement sournois. La victime est incitée à cliquer sur un lien qui mène vers une page web d’apparence totalement inoffensive.
par contre, cette page ne contient aucun code malveillant visible par les scanners de sécurité classiques lors du chargement initial.
Une fois ouverte, elle envoie discrètement des requêtes à une API d’intelligence artificielle légitime.
Le modèle de langage renvoie alors du code JavaScript unique, conçu spécifiquement pour tromper cet utilisateur précis.
Ce code est ensuite assemblé et exécuté directement dans le navigateur de la victime. Le formulaire de phishing apparaît donc « magiquement » sur l’écran sans jamais avoir transité par le réseau sous une forme détectable.
Les chercheurs appellent cela une attaque sans charge utile statique, ce qui la rend invisible pour la plupart des pare-feux actuels.
This article demonstrates a novel attack technique where a seemingly benign webpage uses client-side API calls to trusted large language model (LLM) services for generating malicious JavaScript dynamically in real time. Attackers could use carefully engineered prompts to bypass… pic.twitter.com/xorZHS1244
— blackorbird (@blackorbird) January 23, 2026
Des briques technologiques déjà actives dans la nature
Si l’unité 42 présente ce scénario comme une preuve de faisabilité, le danger est imminent. Les experts soulignent que tous les éléments nécessaires à ce type d’attaque sont déjà utilisés séparément par les pirates.
Ils utilisent déjà les LLM pour écrire du code malveillant obscurci et pour mener des campagnes de cyberespionnage.
L’assemblage de ces techniques permet ainsi de créer des leurres personnalisés en fonction de votre localisation ou de votre appareil.
Même un utilisateur sur iPhone pourrait voir une fausse page Apple. Tandis qu’un utilisateur Windows verrait une alerte Microsoft, le tout généré par la même IA.
Comment les entreprises peuvent-elles se défendre ?
Face à cette menace émergente, les méthodes de défense traditionnelles montrent leurs limites.
La détection de ces pages nécessitera des robots d’exploration de nouvelle génération, capables d’analyser le comportement du navigateur en temps réel.
Pour les entreprises, la première ligne de défense reste la limitation stricte des usages de l’IA.
Il est également indispensable de restreindre l’accès aux services de LLM non agréés sur les réseaux professionnels.
L’unité 42 insiste d’ailleurs sur la responsabilité des fournisseurs d’intelligence artificielle. Il est urgent de renforcer les garde-fous pour empêcher les modèles de générer du code malveillant à la demande.
En somme, la vigilance humaine reste le meilleur rempart contre des machines de plus en plus douées pour nous tromper.
- Partager l'article :
