in

Failles des TPU : les modèles d’IA de Google à la merci des pirates

Des chercheurs ont trouvé un moyen de recréer des modèles d’IA grâce à une électromagnétique. Cette avancée technique met en lumière des failles inquiétantes dans la sécurité des dispositifs d’IA.

YouTube video

Une étude de l’Université d’État de Caroline du Nord met en lumière une méthode particulièrement ingénieuse. Les chercheurs ont exploité les émanations électromagnétiques générées par un TPU Edge pendant l’exécution d’un modèle d’IA. Grâce à cette technique, ils ont réussi à déduire les hyperparamètres du modèle cible.

Surnommée « TPUXtract », cette approche constitue une avancée majeure dans l’analyse des systèmes d’IA. Elle questionne sérieusement la sécurité des technologies utilisées dans les environnements commerciaux.

Les hyperparamètres, une clé stratégique à comprendre

Les hyperparamètres définissent des valeurs essentielles qui influencent l’apprentissage d’un modèle d’IA. Ces configurations statiques, comme le taux d’apprentissage ou la taille du lot, orientent la manière dont un modèle traite les données. Contrairement aux paramètres internes, ajustés pendant la formation, les hyperparamètres ne changent pas mais restent cruciaux pour la performance du modèle. Les chercheurs montrent que leur extraction permet de recréer un modèle complexe avec une précision presque parfaite.

Failles des TPU : les modèles d'IA de Google à la merci des pirates

La méthode utilisée pour cette extraction repose sur une analyse couche par couche. À l’aide d’un oscilloscope et d’une sonde électromagnétique, les chercheurs ont collecté des données détaillées pour chaque composant du modèle. Ensuite, ils ont combiné ces informations pour reconstruire des modèles complexes tels que MobileNet V3 et ResNet-50 avec une précision de 99,91 %. Chaque couche nécessitant environ trois heures d’analyse, cette méthode s’avère bien plus rapide et fiable que les tentatives précédentes.

Des failles dans les accélérateurs commerciaux révélées

Les faiblesses des TPU Google Edge résident notamment dans l’absence de chiffrement de mémoire. Cette lacune offre une opportunité à des attaquants équipés d’outils accessibles de reproduire des modèles à coût réduit. Les chercheurs alertent également sur le fait que d’autres accélérateurs d’apprentissage automatique pourraient partager des vulnérabilités similaires. Une action immédiate est nécessaire pour limiter ces risques.

Ces travaux soulèvent des interrogations cruciales concernant la sécurité des modèles d’IA. Si une approche comme « TPUXtract » permet de copier des systèmes aussi facilement, les entreprises doivent réagir rapidement. L’intégration de mécanismes de chiffrement, de systèmes de détection et d’environnements d’exécution sécurisés devient indispensable. Sans ces protections, les modèles innovants resteront exposés à des vols technologiques.

YouTube video

Cette étude démontre l’urgence d’agir face à des techniques de plus en plus sophistiquées. Il reste à savoir si les acteurs du secteur sauront anticiper et contrer ces menaces avant qu’elles ne deviennent une pratique courante.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *