in

Le filigrane « invisible » de Google a-t-il vraiment craqué ?

Filigrane Ia Goole craqué

DeepMind vient de subir son premier véritable test de résistance public. Alors que SynthID est devenu le standard industriel pour marquer les contenus générés par Nano Banana et Veo 3, un développeur indépendant affirme avoir « décrypté » le système à l’aide de simples images noires et de beaucoup de patience. 

🔥 Nous recommandons Artspace.ai

Artspace.ai est le meilleur générateur d’image pour de nombreuses raisons. Intuitif, il offre des options diversifiées pour inspirer votre créativité. Que vous soyez artiste, créateur de contenu ou simplement curieux, Artspace.ai stimule l’inspiration et vous accompagne à chaque étape de votre processus visuel

Le tatouage numérique de l’IA est-il réellement en danger ou Google garde encore la main sur l’authenticité de ses pixels ?

YouTube video

La méthode des 200 images noires  

Le 14 avril 2026, un développeur officiant sous le pseudonyme d’Aloshdenny a jeté un pavé dans la mare en publiant sur GitHub les résultats d’une rétro-ingénierie menée sur SynthID, le système de tatouage numérique de Google. 

Sa méthode, bien que techniquement ardue, repose sur une logique de traitement du signal presque rudimentaire : isolation du signal, moyennage spectral et perturbation.

En demandant à Gemini de générer 200 images d’un noir pur, le développeur a pu isoler le « bruit » ajouté par SynthID.

Sur une image noire, tout pixel non nul est potentiellement une partie du filigrane. En faisant la moyenne de ces images, les motifs récurrents (phase et amplitude) apparaissent.

Une fois le motif identifié, il suffit d’appliquer une transformation inverse pour perturber le décodeur de Google.

« Il s’avère que si vous êtes au chômage et que vous utilisez des images générées par IA d’un noir pur suffisamment moyen, chaque pixel non nul est littéralement un filigrane qui vous fixe du regard ».

Décryptage ou simple brouillage ?

Aloshdenny lui-même admet ne pas avoir réussi à supprimer les données du filigrane, mais seulement à perturber le décodeur pour qu’il ne puisse plus identifier l’image comme étant issue d’une IA.

État des lieux de la vulnérabilité de SynthID

AspectStatut en avril 2026Observation
Suppression totaleNon atteinteLes données du filigrane restent incrustées dans les pixels.
InvisibilitéMaintenueLe processus de suppression partielle ne dégrade pas l’image.
Contournement du décodeur⚠️ PartielLe décodeur « abandonne » face au bruit introduit par le pirate.
Accessibilité🛠️ Expert uniquementNécessite des compétences pointues en traitement du signal.

Google, par la voix de sa porte-parole Myriam Khan, a fermement contesté l’idée que SynthID soit « craqué », affirmant que l’outil reste robuste et efficace pour la majorité des cas d’usage.

L’abus a un coût

Le consensus parmi les experts en 2026 est que SynthID n’a jamais prétendu être inviolable, mais plutôt dissuasif

L’objectif de DeepMind est d’augmenter le coût de l’abus (en temps, en compétences et en ressources) pour que la suppression du filigrane ne soit pas rentable pour le commun des mortels.

Si un développeur brillant peut passer des semaines à isoler des fréquences dans des images noires, l’utilisateur moyen cherchant à diffuser de la désinformation à grande échelle restera bloqué par la barrière technique. 

La publication en open source de ces travaux pourrait en effet permettre la création d’outils automatisés, ce qui forcerait Google à faire évoluer les algorithmes de SynthID vers des motifs plus dynamiques ou aléatoires.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !