Voler un modèle d’IA sans pirater ni accéder aux données semble désormais possible grâce à une méthode électromagnétique innovante. Cette technique dévoile une faille inquiétante et met en lumière les défis de sécurisation en matière d’IA.
Des chercheurs de l’Université d’État de Caroline du Nord ont mis au point une méthode troublante. Ils peuvent copier des modèles d’IA sans avoir besoin de pirater directement. Leur technique exploite les signaux électromagnétiques émis par les unités de traitement de tenseurs (TPU) pendant leur fonctionnement. Ces signaux créent une signature unique qui dévoile l’architecture du modèle.
Grâce à cette approche, ils ont reconstitué un modèle d’IA avec une précision impressionnante de 99,91 %.
Une collaboration minutieuse avec Google
Pour mener cette étude, les chercheurs ont utilisé une sonde électromagnétique et des TPU fournis par Google. Ils ont enregistré les signaux générés par ces puces lorsqu’elles exécutaient plusieurs modèles d’IA open source pré-entraînés.
Ensuite, en comparant ces données aux signatures électromagnétiques des modèles ciblés, ils ont identifié les hyperparamètres essentiels. Ces informations incluaient les couches et les architectures spécifiques du modèle.
Ashley Kurian, doctorante et auteure principale de l’étude, explique : « Les signaux électromagnétiques nous donnent une signature précise du comportement d’un modèle d’IA. » Cependant, cette méthode nécessite un accès physique à la puce, ce qui limite actuellement son utilisation pratique à des environnements contrôlés.
Une menace sérieuse pour la propriété intellectuelle
Entraîner un modèle d’IA demande énormément de ressources. Cela inclut des milliards de paramètres, du temps et des infrastructures coûteuses. Si un acteur malveillant vole un modèle, il évite ces dépenses et profite directement du produit. Ashley Kurian avertit : « Les entreprises investissent des sommes colossales dans ces modèles. Les perdre, c’est perdre un atout clé. »
Des outils comme ChatGPT, qui représentent une propriété intellectuelle précieuse, sont particulièrement vulnérables. Les entreprises qui exploitent ces modèles à grande échelle doivent désormais se protéger contre ce type de menace.
Les appareils connectés également en danger
Selon Mehmet Sencan, chercheur chez Atlas Computing, cette méthode pourrait cibler d’autres dispositifs connectés. Les smartphones, par exemple, pourraient aussi être vulnérables à cette approche. Cependant, leur taille compacte rend la capture des signaux électromagnétiques plus complexe. Malgré cela, Sencan estime que les architectures des modèles pourraient tout de même être extraites avec des sondages approfondis.
Les attaques par canal auxiliaire ne sont pas nouvelles, mais leur application pour copier des modèles entiers est alarmante. Cette découverte pousse les entreprises comme Google à reconsidérer la sécurité de leurs matériels. Protéger les modèles d’IA déployés en périphérie ou sur des serveurs non sécurisés devient une priorité absolue.
Cette technique de vol soulève des questions sur la sécurisation des modèles d’IA et leurs architectures. Bien qu’elle nécessite un accès physique, elle montre une vulnérabilité qui pourrait être exploitée à plus grande échelle.
- Partager l'article :