Après la sortie de ChatGPT en 2022, les systèmes d’IA ont gagné en performances. Il y a même des marketplaces de prompts pour acheter et vendre des invites. Pourtant, ces plateformes n’ont pas pour unique objectif de partager les bons prompts. On fait aujourd’hui face à l’expansion des marchés noirs de prompts qui consistent à vendre des prompts qui pourraient jailbreaker les systèmes d’IA et contourner leurs mesures de sécurité.
L’approche fait spécifiquement référence à des techniques de hackage qui inquiètent de plus en plus les développeurs qui ont pourtant déjà mis en place des garde-fous pour sécuriser les utilisateurs.
Les cybercriminels arrivent à débrider les systèmes d’IA, même les plus sécurisés, plus facilement avec les techniques de jailbreak.
Comme le cas de DeepSeek qui, après un test de jailbreak, a révélé une faille inquiétante pour ses utilisateurs.
L’émergence du marché noir des prompts
Malgré l’existence des formations en prompt engineering, le dark web héberge aujourd’hui de nombreux forums d’échanges d’invites permettant de manipuler les IA pour des tâches dangereuses.
Et le problème, c’est que cette tendance gagne de plus en plus de terrain. Ce qui présente un risque à ne pas négliger en matière d’éthique et d’utilisation des données.
L’une des plus grosses tendances actuelles, c’est bien sûr les jailbreaks qui montent en puissance à cause des marchés noirs de prompts.
Il n’existe pas aujourd’hui qu’un seul moyen de contourner la sécurité des IA et d’influencer leurs réponses.
Je peux par exemple faire en sorte qu’un chatbot, dont ChatGPT fasse tout ce que je lui demande de faire via un seul prompt.
À l’instar de « Do Anything Now » qui va faire en sorte que l’IA que vous utilisez ignore ses limites tout en jouant un rôle fictif.
‼️JAILBREAK ALERT 🥂
— Pliny the Liberator 🐉󠅫󠄼󠄿󠅆󠄵󠄐󠅀󠄼󠄹󠄾󠅉󠅭 (@elder_plinius) May 2, 2024
OPENAI: PWNED 🤙
DALL-E 3: LIBERATED 👁️
The special today is a prompt injection with multiple layers of obfuscation, a variable, and imagined worlds. Served with the works: nudity, drugs, celebrities, copyrighted characters, logos, weapons, politics, crime,… pic.twitter.com/5eoe5WIh0z
Ces techniques de jailbreak ont un impact sur la sécurité des données
Tout le mode s’empresse d’utiliser l’IA quotidiennement, sans imaginer les réelles conséquences des cas d’usage malveillants de ces systèmes.
Et si on ne fait pas attention à ce que l’on saisit, le chatbot que l’on utilise pourrait avoir accès à nos données sensibles.
Dans ce cas bien précis, les hackers peuvent facilement accéder à ces données et les vendre sur le dark web ou les utiliser à des fins d’escroquerie.
C’est pourquoi il ne faut jamais fournir à ChatGPT ni à n’importe quel autre chatbot ou système d’IA certains types d’information.
Je vous ai d’ailleurs préparé la liste des données à ne pas communiquer à ChatGPT pour protéger votre vie privée et votre image dans cet article.
De leur côté, les entreprises s’empressent de mettre régulièrement à jour leur IA pour tenter de lutter contre les utilisations malveillantes.
Mais il est toujours difficile de résoudre les failles puisque le fonctionnement des systèmes d’IA n’est pas similaire à celui des logiciels classiques.
Cela dit, il y aura toujours des techniques de contournement, assez simplistes, mais qui demeurent efficaces.
- Partager l'article :