Le rapport trimestriel de Google (février 2026) révèle une offensive sans précédent contre son IA phare, Gemini. Plus de 100 000 prompts coordonnés ont été interceptés, visant à « piller » les capacités de raisonnement du modèle. Cette campagne, impliquant des groupes APT étatiques, marque un tournant : le vol de propriété intellectuelle par distillation d’IA est devenu une priorité géopolitique et criminelle.
L’enjeu n’est plus seulement d’infiltrer un réseau, mais de transférer la substance grise artificielle d’un leader mondial vers des modèles tiers à moindre coût.
Google dénonce une forme de vol de propriété intellectuelle dans son rapport. Une attaque visant à accélérer le développement d’IA concurrentes en « aspirant » les investissements massifs de la Silicon Valley.
Plus de 100 000 prompts identifiées par Google pourraient avoir été conçus pour extraire les capacités de raisonnement du LLM Gemini. Les cybercriminels peuvent ainsi s'en servir pour automatiser leurs attaques. https://t.co/Atrj6rZuH3
— TRONCAL Yannick (@ytroncal) February 17, 2026
Une attaque via la distillation par le prompt
Les attaquants ont utilisé des techniques sophistiquées pour extraire les processus de réflexion de Gemini dans diverses langues.
L’une des méthodes consistait à imposer une cohérence stricte entre le contenu et la langue de l’utilisateur pour forcer l’IA à révéler sa structure logique multilingue.
Cette pratique de distillation de connaissances permet de créer un modèle plus petit, mais presque aussi performant qu’un géant comme Gemini, en utilisant les réponses de ce dernier comme base d’entraînement.
Pourtant, Google n’est pas seul dans cette situation. OpenAI a récemment accusé le chinois DeepSeek d’utiliser des méthodes camouflées similaires pour profiter gratuitement des capacités de ses modèles.
Les groupes APT et les États qui s’emparent de Gemini
Le rapport documente l’utilisation détournée de l’IA par des acteurs étatiques pour muscler leurs cyberattaques, comme le montre le tableau suivant :
| Groupe APT | Pays | Utilisation constatée de Gemini |
| APT42 | Iran | Ingénierie sociale ciblée et compréhension culturelle pour le phishing. |
| APT31 / UNC795 | Chine | Analyse de vulnérabilités, débogage de malwares et recherche d’exploits. |
| UNC2970 | Corée du Nord | Espionnage du secteur de la défense et du phishing hyper-personnalisé. |
L’IA intégrée au code malveillant
Plus inquiétant encore, Google a identifié des malwares de nouvelle génération qui intègrent directement l’API de Gemini dans leur code source.
C’est justement le cas du malware Honestcue, qui envoie des prompts à l’API pour générer du code fonctionnel en temps réel.
Ce code est ensuite compilé et exécuté directement en mémoire. Ce qui lui permet de contourner les antivirus classiques.
Parallèlement, le service clandestin Xanthorox proposait une prétendue « IA pirate » personnalisée. Or, ce dernier n’était en réalité qu’une surcouche (wrapper) utilisant les capacités de Gemini pour produire des logiciels malveillants à la demande.
Mes recommandations pour une meilleure défense stratégique
Face à ces menaces adaptatives, chez intelligence-artificielle.com, on préconise une nouvelle approche de la sécurité basée sur une gouvernance stricte des API.
Il devient impératif de surveiller les modèles d’accès pour détecter tout signe d’extraction systématique avant que le modèle ne soit « aspiré ».
Par ailleurs, la mise en place de filtres de sortie et de contrôles de réponse est essentielle pour empêcher l’IA de révéler son propre comportement ou sa structure interne en cas de violation.
Sinon, le rythme des menaces impose des tests continus basés sur des comportements adversaires réalistes. Pourquoi ? Car les cycles d’attaque sont désormais accélérés par l’IA elle-même. Rendant les défenses traditionnelles insuffisantes.
- Partager l'article :
