DeepMind vient de subir son premier véritable test de résistance public. Alors que SynthID est devenu le standard industriel pour marquer les contenus générés par Nano Banana et Veo 3, un développeur indépendant affirme avoir « décrypté » le système à l’aide de simples images noires et de beaucoup de patience.
Le tatouage numérique de l’IA est-il réellement en danger ou Google garde encore la main sur l’authenticité de ses pixels ?
La méthode des 200 images noires
Le 14 avril 2026, un développeur officiant sous le pseudonyme d’Aloshdenny a jeté un pavé dans la mare en publiant sur GitHub les résultats d’une rétro-ingénierie menée sur SynthID, le système de tatouage numérique de Google.
Sa méthode, bien que techniquement ardue, repose sur une logique de traitement du signal presque rudimentaire : isolation du signal, moyennage spectral et perturbation.
En demandant à Gemini de générer 200 images d’un noir pur, le développeur a pu isoler le « bruit » ajouté par SynthID.
Holy shit.
— Robert Youssef (@rryssf_) April 10, 2026
One unemployed engineer just cracked Google's "unbreakable" AI watermark with 200 black images and a math transform from 1965.
Google DeepMind built SynthID, an invisible watermark embedded at the pixel level into every image Gemini generates. Designed to survive… pic.twitter.com/K0LvkFxWdz
Sur une image noire, tout pixel non nul est potentiellement une partie du filigrane. En faisant la moyenne de ces images, les motifs récurrents (phase et amplitude) apparaissent.
Une fois le motif identifié, il suffit d’appliquer une transformation inverse pour perturber le décodeur de Google.
« Il s’avère que si vous êtes au chômage et que vous utilisez des images générées par IA d’un noir pur suffisamment moyen, chaque pixel non nul est littéralement un filigrane qui vous fixe du regard ».
Décryptage ou simple brouillage ?
Aloshdenny lui-même admet ne pas avoir réussi à supprimer les données du filigrane, mais seulement à perturber le décodeur pour qu’il ne puisse plus identifier l’image comme étant issue d’une IA.
État des lieux de la vulnérabilité de SynthID
| Aspect | Statut en avril 2026 | Observation |
| Suppression totale | ❌ Non atteinte | Les données du filigrane restent incrustées dans les pixels. |
| Invisibilité | ✅ Maintenue | Le processus de suppression partielle ne dégrade pas l’image. |
| Contournement du décodeur | ⚠️ Partiel | Le décodeur « abandonne » face au bruit introduit par le pirate. |
| Accessibilité | 🛠️ Expert uniquement | Nécessite des compétences pointues en traitement du signal. |
Google, par la voix de sa porte-parole Myriam Khan, a fermement contesté l’idée que SynthID soit « craqué », affirmant que l’outil reste robuste et efficace pour la majorité des cas d’usage.
L’abus a un coût
Le consensus parmi les experts en 2026 est que SynthID n’a jamais prétendu être inviolable, mais plutôt dissuasif.
L’objectif de DeepMind est d’augmenter le coût de l’abus (en temps, en compétences et en ressources) pour que la suppression du filigrane ne soit pas rentable pour le commun des mortels.
Si un développeur brillant peut passer des semaines à isoler des fréquences dans des images noires, l’utilisateur moyen cherchant à diffuser de la désinformation à grande échelle restera bloqué par la barrière technique.
La publication en open source de ces travaux pourrait en effet permettre la création d’outils automatisés, ce qui forcerait Google à faire évoluer les algorithmes de SynthID vers des motifs plus dynamiques ou aléatoires.
- Partager l'article :
