in

YouTube étend sa protection IA aux célébrités

Interface YouTube sur un écran d'ordinateur pour illustrer la protection ia pour les célébrités.

YouTube déploie son outil de détection de deepfakes faciaux pour protéger les célébrités et l’industrie du divertissement contre les contenus générés par IA.

YouTube a annoncé l’extension de sa technologie de « likeness detection » (détection de l’apparence physique) à l’ensemble de l’industrie du divertissement. Cet outil permet désormais aux agents et aux stars de repérer les vidéos utilisant leur visage sans autorisation. Cette mesure vise principalement à combattre l’explosion des publicités frauduleuses utilisant des clones numériques.

Un fonctionnement calqué sur le Content ID

YouTube video

Le système s’inspire directement du célèbre Content ID, utilisé depuis des années pour les droits d’auteur musicaux. Au lieu de scanner des empreintes audio ou des extraits de films, l’algorithme scanne désormais les vidéos. L’objectif : identifier des visages simulés par IA.

Une fois qu’une correspondance visuelle est détectée, les ayants droit ont plusieurs options. Ils peuvent demander le retrait immédiat pour violation de la vie privée. Ils peuvent également soumettre une demande de suppression pour atteinte au droit d’auteur. Si le contenu leur convient, ils sont libres de ne rien faire.

YouTube précise toutefois que tout ne sera pas supprimé automatiquement. Selon les règles de la plateforme, les contenus relevant de la parodie ou de la satire restent autorisés, même s’ils utilisent la technologie de détection de ressemblance.

Qui est concerné par cette extension ?

Le déploiement annoncé ce 21 avril 2026 cible les agences de talents, les sociétés de gestion et les célébrités qu’elles représentent. Fait notable : les artistes n’ont pas besoin de posséder une chaîne YouTube personnelle pour bénéficier de cette protection algorithmique.

Le projet a bénéficié de l’expertise de poids lourds du secteur. Des agences majeures comme CAA, UTA, WME et Untitled Management ont collaboré avec YouTube pour affiner l’outil avant ce lancement à grande échelle. Cette phase marque une étape importante après un premier pilote lancé en octobre 2025 auprès de quelques créateurs. Au printemps 2026, l’accès avait déjà été élargi aux politiciens, aux responsables gouvernementaux et aux journalistes.

Des chiffres encore modestes mais une ambition fédérale

Malgré le déploiement technologique, YouTube reste discret sur le volume de suppressions effectuées. En mars 2026, l’entreprise notait que le nombre de contenus retirés via cet outil restait encore « très faible », sans donner de statistiques précises.

L’initiative ne s’arrête pas aux frontières de la plateforme. YouTube a confirmé son soutien actif à des projets de loi américains comme le NO FAKES Act et le Take It Down Act à Washington, D.C. Ces législations visent à réguler au niveau fédéral l’utilisation non autorisée de la voix et de l’apparence physique par l’IA. En avril dernier, YouTube soulignait déjà sa collaboration avec la RIAA (le syndicat de l’industrie du disque aux USA) pour bâtir un consensus autour de ces régulations.

Et après ? Le son dans le viseur

L’évolution de l’outil est déjà programmée. La version actuelle se concentre sur les traits du visage. YouTube a, toutefois, annoncé que la technologie prendra prochainement en charge la détection audio pour identifier les clones vocaux générés par IA.

Ce renforcement technique arrive alors que les stars de la musique et du cinéma s’inquiètent de plus en plus de la prolifération de leurs doubles numériques sur les réseaux sociaux. YouTube se positionne ainsi comme un rempart technologique face aux dérives de l‘IA générative.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !