On n’est jamais à l’abri des cyberattaques au fur et à mesure l’intelligence artificielle se développe. Je vous ai déjà parlé de certains types d’attaques, notamment le phishing. Mais aujourd’hui, une nouvelle forme de piratage a vu le jour. Celle-ci, répondant au nom de Slopsquatting, ciblerait particulièrement les chaînes d’approvisionnement.
D’après les chercheurs, le slopsquatting fait référence à des hallucinations de paquets. Et on constate généralement ce phénomène dans les codes générés par IA.
Ce sont en effet les éditeurs de code tels que Python et JavaScript qui, dans la majorité des cas, auraient ce problème d’hallucination, les entraînant à dépendre à des faux paquets.
C’est d’ailleurs ce qu’ont expliqué les chercheurs de l’Université d’Oklahoma, de Virginia Tech et de l’Université du Texas.
Plusieurs IA génératives de codes ont d’ailleurs été testées, dont CodeLlama, GPT-3.5 et GPT-4, ainsi que Mistral et DeepSeek.
Résultat : les chercheurs ont constaté qu’un paquet recommandé sur cinq n’existait pas. Si vous vous demandez encore en quoi c’est une menace, eh bien je vous invite à visionner la vidéo ci-dessous.
Une nouvelle menace qui cible le code généré par l’IA
Vous l’aurez compris, cette situation crée un nouveau type d’attaque contre les ressources logicielles open source, appelée slopsquatting, par analogie avec le typosquatting.
Contrairement au typosquatting qui exploite les fautes de frappe, le slopsquatting utilise des noms de bibliothèques inventés par l’IA.
Voici comment fonctionne cette menace : les modèles d’IA génèrent régulièrement des noms de bibliothèques qui n’existent pas.
Les pirates peuvent alors identifier ces noms fictifs récurrents et créer de vraies bibliothèques malveillantes portant ces mêmes noms.
Si un développeur installe sans vérification toutes les bibliothèques mentionnées dans le code généré par IA, ou si l’IA installe elle-même ces bibliothèques, un logiciel malveillant s’infiltre dans l’application.
Ce problème risque de s’aggraver avec la pratique du vibe coding, où les programmeurs donnent simplement des instructions à l’IA sans examiner le code produit.
Cette menace est particulièrement préoccupante puisque tous les grands dépôts de logiciels open source ont déjà été victimes de nombreuses bibliothèques malveillantes l’année dernière, avec près de 20 000 bibliothèques dangereuses découvertes.
Les programmeurs débutants et les équipes informatiques d’entreprise qui développent des solutions d’automatisation internes sont particulièrement vulnérables à ce type d’attaque.
Slopsquatting. Feels like its own hallucination. Be careful out there! https://t.co/RJa93zy7bi
— Joshua Maddox (@JoshuaBMaddox) April 23, 2025
Est-ce qu’il est possible de se protéger contre le slopsquatting ? Si oui, comment ?
Il existe déjà plusieurs guides sur l’utilisation sécurisée de l’IA dans le développement logiciel (comme ceux de l’OWASP, du NIST et les nôtres). Mais ils proposent souvent un large éventail de mesures complexes à mettre en œuvre.
J’ai donc rassemblé quelques solutions simples pour faire face au problème spécifique des bibliothèques fictives générées par l’IA.
En premier lieu, n’hésitez pas à analyser systématiquement l’ensemble du code, y compris celui généré par l’IA, avec des outils de test de sécurité.
Vous pouvez également intégrer ces vérifications dans votre processus de développement pour détecter les secrets exposés. Vérifier aussi que les versions des bibliothèques sont correctes.
Il est aussi recommandé de demander à l’IA de vérifier son propre code et d’analyser la popularité des bibliothèques qu’elle recommande.
Je vous recommande par ailleurs d’utiliser une base de données de bibliothèques fiables pour améliorer le modèle et réduire les erreurs.
Grâce à ces astuces, les chercheurs ont pu diminuer le taux de bibliothèques fictives à 2,4 % pour DeepSeek et 9,3 % pour CodeLlama. Malgré tout, les chiffres demeurent préoccupants.
Dernier conseil : n’utilisez pas l’IA pour coder des composants critiques. Pour les tâches moins sensibles, faites réviser le code par un développeur expérimenté. Ici, le mieux, c’est de suivre une liste de contrôle adaptée au code généré par IA.
Limitez également la possibilité d’ajouter de nouvelles dépendances et privilégiez l’utilisation de bibliothèques internes déjà testées et validées.
- Partager l'article :