Générateur de malware en open source, WormGPT semble avoir disparu jusqu’à ce que Grok et Mistral AI lui aient redonné un second souffle ! Doit-on s’inquiéter des potentiels dérives de l’IA en open source ?
Nous sommes en 2023, une autre version malfaisante de l’IA générative venait de voir le jour, WormGPT. À l’époque, le modèle avait fait sensation auprès des forums dédiés aux cybercrimes jusqu’à ce que le phénomène soit éteint.
Sauf qu’au cours de ces derniers jours, WormGPT vient de réapparaître, beaucoup plus dangereux, plus sophistiqués et dopés par des modèles LLMs les plus puissants du marché, à savoir Grok d’xAI et Mixtral de Mistral AI.
Cette découverte fait froid dans le dos et a poussé les chercheurs à tirer la sonnette d’alarme. L’IA n’est pas seulement un outil de création, elle vient d’atteindre son paroxysme pour devenir un levier d’attaques cybercriminels sans précédent.
Le générateur de malware WormGPT c’est quoi exactement ?
Si vous êtes un fan de Star Wars, WormGPT représente les Sith, si ChatGPT, Gemini ou Claude incarnent les Jedi ! En d’autres termes, ce modèle de chatbot a été conçu pour des usages malveillants comme des attaques informatiques à grande échelle.
On peut également s’en servir pour générer des e-mails de phishing crédibles. Certains s’en servaient également pour créer des scripts malveillants et des programmes informatiques destinés à pirater ou à infecter les systèmes.
Disponible en open source, WormGPT était débridé et tout le monde pouvait s’en servir sans aucune restriction, contrairement aux autres modèles d’IA commerciaux dotés de garde-fous. Sauf qu’en 2024, la plateforme a été après qu’on ait identifié son créateur.
Sauf que le concept n’a pas totalement disparu. Il est même devenu un label générique pour désigner les versions d’IA détournées à des fins malveillantes. Et en 2025, WormGPT devient beaucoup plus redoutable qu’auparavant, poussant les experts en IA à sortir de leur silence.
Est-ce que les modèles d’IA actuels sont faciles à jailbreaker au service du crime ?
Si la nouvelle version de WormGPT fait aussi peur c’est parce qu’il a bénéficié de la puissance des modèles d’IA commerciaux que nous utilisons au quotidien, notamment Grok et de Mixtral. En effet, d’après le rapport publié le 17 juin 2025 par CATO CTRL, deux variantes de cette IA malveillante est actuellement en libre circulation.
Pour la conception, les pirates ont tout simplement désactivé les garde-fous éthiques de ces LLMs à partir de la modification des prompts. Résultat : ils ont pu concevoir des IA capables de rédiger du code malveillant, sans aucune restriction.
L’hydre n’a plus une seule tête, elle en a deux, notamment keanu-WormGPT propulsé par l’API de Grok, et xzin0vich-WormGPT, basée sur Mixtral 8x7B. Alors, la question que l’on se pose c’est : est-ce que les IA génératives sont faciles à pirater ? Est-ce que nos données sont sécurisées lorsque nous utilisons ces outils d’IA ?
Régulation de l’IA, plus nécessaire que jamais ?
Les nouvelles versions de WormGPT sont capables de produire des ransomwares, de concevoir des campagnes de phishing automatisés et surtout de simuler des identités pour piéger leurs cibles. Cette renaissance de WormGPT illustre un problème majeur dans le milieu de l’intelligence artificielle.
À l’heure actuelle, les éditeurs d’IA sont dépassés par la vitesse à laquelle les acteurs malveillants adaptent et exploitent leurs technologies pour des objectifs frauduleux. Certes, les garde-fous sont renforcés de manière régulière, seulement, les hackers ont une longueur d’avance et arrivent à les contourner.
Interrogés sur les détournements de leurs modèles, Mistral AI et xAI ne se sont pas encore prononcé. Une chose reste cependant sûre, WormGPT alimente actuellement le marché noir du Malware-as-a-Service (MaaS). Tout le monde peut désormais accéder à ces outils, il suffit juste d’avoir une connexion Internet et d’avoir des mauvaises intentions, d’où la nécessite de mettre en place une régulation de l’IA au plus vite.
- Partager l'article :