Un chercheur a récemment réussi à créer un malware grâce à l’IA. Ce qui signifie que tout le monde peut désormais exécuter une cyberattaque grâce à la capacité de l’intelligence artificielle. Mais une seule question se pose : serait-ce le début d’une nouvelle génération de logiciels malveillants ou la fin de l’écosystème IA ?
Quoi qu’il advienne, Wired a rapporté dans son article que ce malware, identifié comme un ver informatique, peut infecter et se propager d’un système à un autre. Ainsi, il peut extorquer les données sans que l’utilisateur s’en aperçoive. Ben Nassi de son côté, chercheur chez Cornell Tech, ajoute que grâce à ce malware, on peut facilement des attaques qui n’ont rien avoir avec les infections antérieures.
Attention ! Les IA ont accès à vos données personnelles
Des chercheurs ont mené une expérience dans un cadre contrôlé et ont ciblé les assistants conversationnels alimentés par GPT-4 d’OpenAI, Gemini Pro de Google ainsi qu’un important modèle de langage open source nommé LLaVA.
D’après eux, ils ont opté pour une méthode qui repose sur une « invite auto-réplicative contradictoire ». Celle-ci oblige ensuite le modèle d’IA à émettre une nouvelle invite dans sa réponse. Cela déclenche un effet cascade d’outputs qui peut « infecter » ces assistants et leur soutirer des informations sensibles.
« Cela peut concerner certaines données. Dont des noms, des numéros de téléphone, des données bancaires, numéros de sécurité sociale ou tout autre élément considéré comme confidentiel », a ajouté Nassi.
Parallèlement, comme ces IA ont accès à des bases de données personnelles, on peut assez facilement les amener à divulguer les secrets des utilisateurs malgré les barrières de sécurité installées.
En exploitant un nouveau système de messagerie bidirectionnel, les scientifiques ont pu infecter la base d’un mail envoyé. Et c’est qui a permis à ce malware de voler les données sensibles contenues dans les mails grâce à l’IA.
Un malware IA capable de se transmettre d’un ordinateur à un autre
Les mêmes chercheurs qui ont développé ce malware ont découvert une faille inquiétante dans les systèmes d’IA conversationnelle comme ChatGPT. Quand ils ont injecté les données malveillantes dans les requêtes, ils ont réussi à propager ces données d’un système à l’autre, à l’insu des utilisateurs.
L’équipe a même caché une instruction malveillante dans une image. Ce qui a causé l’infection des autres clients via leur boîte de messagerie. C’est-à-dire quand le traitement de l’image a été infecté par le malware. Nassi ajoute même que si l’on encode le prompt autoréplicatif, on pourrait transmettre les contenus infectés vers d’autres boîtes mail.
Selon les chercheurs, de tels vers d’IA propagandistes ou malveillants pourraient commencer à se répandre dans les prochaines années. Et les conséquences seront significatives et prévisibles selon eux.
Malgré tout, OpenAI et Google ont été prévenus de l’efficacité de ce malware à infecter les assistants IA. De son côté, OpenAI travaille déjà sur l’affaire pour renforcer la résilience de ses systèmes. Mais la course contre la montre est engagée pour colmater ces brèches de sécurité avant qu’elles ne soient exploitées à grande échelle.
- Partager l'article :