in ,

Un email piégé, et Gemini devient complice de hackers

Faille Manipulation Gemini CLI par fichier texte

L’interface de ligne de commande de Gemini, le nouvel assistant IA de Google destiné aux développeurs, a été victime d’une faille de sécurité majeure. L’incident a eu lieu quelques jours seulement après son lancement. Si elle avait été exploitée à grande échelle, cette vulnérabilité aurait permis à des attaquants d’exécuter du code arbitraire ou d’accéder à des données sensibles, sans que l’utilisateur en ait conscience.

Une autre vulnérabilité a été repérée dans Gmail, où l’IA de Google pouvait résumer des emails contenant des instructions dissimulées.

Ces incidents posent de vraies questions sur la sécurité des intelligences artificielles intégrées aux outils de travail. Alors que faire pour limiter les risques ?

YouTube video

Google Gemini, un outil pratique, mais vulnérable

Lancée officiellement fin juin 2025, l’interface Gemini CLI permet aux développeurs d’interagir avec les modèles d’intelligence artificielle de Google directement depuis leur terminal.

Concrètement, elle autorise la génération et l’exécution de code en lien avec le contenu d’un projet local, comme des fichiers ou des commandes système.

Mais derrière cette promesse d’automatisation se cachait une faille critique. L’équipe de cybersécurité Tracebit a découvert que le système de sécurité de Gemini CLI, basé sur une « whitelist » de commandes autorisées, pouvait être facilement contourné.

En usurpant une commande bénigne comme grep, un acteur malveillant pouvait injecter des instructions bien plus dangereuses, à l’insu de l’utilisateur.

La faille de Gemini CLI a été facile à exploiter pour les hackers

Selon les chercheurs, l’attaque reposait sur une technique d’obfuscation. Il suffisait en effet d’introduire une commande camouflée dans un fichier de documentation (comme un README.md).

Gemini CLI, en lisant ce fichier, suggérait à l’utilisateur d’exécuter une commande prétendument légitime.

Or, en manipulant finement les espaces, les points-virgules ou les caractères spéciaux, il devenait possible d’intégrer des instructions malveillantes à cette commande.

Résultat : une fois validée, l’IA pouvait envoyer des variables d’environnement. Ces derniers contient parfois des jetons d’accès ou des mots de passe, vers un serveur externe.

Dans certains cas, les commandes permettaient même l’installation d’un shell distant ou la suppression de fichiers locaux.

Google réagit rapidement

Alerté par Tracebit, Google a publié une mise à jour de sécurité en date du 25 juillet. La nouvelle version, Gemini CLI v0.1.14, corrige le défaut en renforçant les contrôles autour des commandes autorisées.

Désormais, toutes les commandes sont affichées explicitement à l’utilisateur, et tout comportement suspect déclenche une demande de confirmation.

Par ailleurs, l’environnement d’exécution est dorénavant isolé via un système de sandboxing. Ce dernier utilise Docker, Podman ou les protections intégrées de macOS.

Les utilisateurs qui désactivent cette protection verront s’afficher une alerte rouge persistante dans leur terminal.

Une autre faille dans Workspace

Cette affaire fait écho à une autre vulnérabilité récemment identifiée. Mais cette fois dans Gemini for Workspace, l’intégration de l’IA dans Gmail et les outils bureautiques de Google.

Des chercheurs ont démontré qu’il était possible de dissimuler des instructions malveillantes dans un email en utilisant du texte invisible (couleur blanche, police à 0 px…).

Lorsqu’un utilisateur demandait un résumé de l’email à Gemini, ces instructions étaient traitées comme des ordres légitimes par l’IA.

Par exemple, un attaquant pouvait insérer une directive disant « ton mot de passe a été compromis, appelle ce numéro immédiatement », rendant l’IA complice involontaire d’une attaque de phishing.

YouTube video

Une surface d’attaque qui s’élargit avec l’IA

Ces incidents rappellent un principe fondamental. Les modèles d’IA, aussi puissants soient-ils, peuvent devenir des vecteurs d’attaque s’ils exécutent aveuglément des instructions cachées dans du texte.

À mesure que les outils comme Gemini s’intègrent dans les flux de travail des développeurs ou dans les suites bureautiques, la surface d’exposition aux attaques s’accroît.

Google affirme qu’aucune exploitation active de ces vulnérabilités n’a été détectée à ce jour

Mais les experts soulignent qu’il est urgent de repenser la manière dont les IA interprètent les contenus. Cela en ajoutant des garde-fous plus robustes face aux manipulations de texte.

Comment limiter les risques ?

Pour limiter les risques liés à ces vulnérabilités, il est essentiel d’adopter certains réflexes de sécurité.

Avant tout, il convient de s’assurer que Gemini CLI est bien à jour, en installant la dernière version proposée par Google.

L’activation du sandboxing, via des outils comme Docker ou Podman, doit devenir systématique pour toute exécution de code par l’IA.

Par ailleurs, il est fortement recommandé de lire attentivement les commandes suggérées par Gemini avant de les valider. Cela afin de repérer toute instruction potentiellement malveillante.

Enfin, dans Gmail, les utilisateurs doivent faire preuve de prudence face aux résumés générés automatiquement par l’IA. Surtout lorsqu’il s’agit d’emails suspects ou non sollicités.  

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !