in

La menace est réelle ! Les chercheurs ont créé le premier virus capable d’infecter l’IA

Morris II premier virus d'IA

Oui, on a déjà vu l’IA se faire pirater par un virus informatique dans les mais dans la vraie vie, cela n’a pas encore existé. Néanmoins, on assiste aujourd’hui à une grande première dans la cyber-menace contre l’. Des chercheurs ont alors développé un malware capable de pirater l’IA et de se répandre dans tout le système.

« Nous avons développé ce ver informatique capable d’infecter l’intelligence artificielle dans le but de rappeler aux utilisateurs les risques indissociables de toutes technologies connectées », déclarent cette équipe de chercheurs. Toujours d’après ces chercheurs, l’apparition de ce nouveau virus devrait alerter les utilisateurs, ainsi que les développeurs de systèmes alimentés par IA de l’émergence des futures générations de cyberattaques.

Morris II, le tout premier virus à avoir infecté l’IA

En 1998, on a vu apparaître un ver informatique ayant semé le chaos sur internet. Et ce nouveau virus fait justement référence à cet ancien malware. C’est pourquoi on l’a baptisé Morris II. Le plus grave avec ce nouveau ver, c’est qu’il se répand d’un système IA à un autre. Et comme tout l’écosystème est connecté, la menace est de taille.

YouTube video

Pour illustrer le potentiel de Morris II, des chercheurs de l’Université Cornell ont effectué un test sur les capacités de ce ver à infecter l’intelligence artificielle. D’après les résultats, Morris II a pu facilement attaquer les agents d’IA et frauder des données importantes.

Lors des tests, Morris II a facilement infecté un assistant de messagerie autonome. Et puis, le virus a volé toutes les données enregistrées dans les mails. Cette première expérience met en évidence la vulnérabilité des LLM face aux cyberattaques, bien qu’ils soient polyvalents et performants.

Les risques sont donc réels, même si ce virus pouvant infecter l’IA n’a pas encore été testé dans des conditions réelles. Développeurs, startups, entreprises, chacun doit désormais se méfier des potentielles attaques et penser dès maintenant à comment sécuriser leur IA.

Expérience réussite pour les chercheurs, menace pour l’IA

D’après les équipes responsables du développement de Morris II, elles ont dû créer un nouveau type d’invite, le prompt auto-réplicatif. C’est en d’autres termes des instructions qui vont conduire les systèmes d’intelligence artificielle à produire automatiquement des nouvelles instructions dans les réponses qu’ils fournissent.

Cette technique est aujourd’hui utilisée dans les attaques traditionnelles telles que le buffer overflow, ou encore les piratages par injection de SQL. Mais ici, les chercheurs de l’Université Cornell ont également créé un protocole de mailing dont le but est de pouvoir envoyer et recevoir des mails depuis et via les agents d’IA tels que , LLaVA et ChatGPT d’OpenAI.

Les chercheurs ont ensuite axé leur expérience sur deux approches d’auto-réplication. La première méthode consiste à utiliser des invites textuelles comme d’habitude. Et le second via l’insertion de liens dans une image.

La première méthode a en effet permis d’infecter la BDD des assistants de messagerie. Résultat : la RAG ou la Retrieval-Augmented Generation s’est activée. Ce qui a entraîné la génération de réponses plus récentes sans recourir à la modification du modèle de langage.

Les mails sont donc récupérés par la RAG et seront envoyés à Gemini ou à -4. C’est ainsi que l’utilisateur peut voler les données des messageries et contourner facilement le protocole de sécurité des systèmes d’IA.

En somme, il n’est pas encore trop tard pour mettre en place des mesures préventives contre les virus IA. Les chercheurs de Cornell ont d’ailleurs partagé leur travail avec les géants de l’IA, dont et Google justement dans le but de renforcer la sécurité de leurs agents IA.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *