Une nouvelle technologie basée sur l’intelligence artificielle permet de nous protéger contre la reconnaissance faciale indésirable en ligne. Baptisé « Chameleon », ce modèle crée des masques numériques invisibles pour nos photos personnelles. Ce qui empêche les cybercriminels de les utiliser sans notre consentement.
Savez-vous que publier nos photos en ligne nous expose au risque de voir notre vie privée violée par la collecte illégale d’images faciales.
Parallèlement, les cybercriminels et d’autres acteurs malveillants peuvent bel et bien exploiter ces bases de données d’images pour commettre des fraudes d’identité, du harcèlement et d’autres délits.
À ce titre, nous pourrions facilement devenir des victimes et des cibles faciles pour des publicités et des attaques ciblées non désirées.
Une protection unique et personnalisée contre toutes utilisations sans consentement
Vous vous dites certainement qu’il existe déjà des systèmes qui proposent ce genre de protection.
Mais contrairement aux solutions existantes, dont celles qui créent différents masques pour chaque photo, Chameleon génère un masque de protection de la vie privée unique et personnalisé (P-3) pour toutes les photos d’un même utilisateur.
Il va donc créer un masque à partir de quelques clichés envoyés par l’utilisateur. Une fois appliqué, les photos protégées ne seront plus détectables par les systèmes de reconnaissance faciale, qui les identifieront comme appartenant à une autre personne.
Chameleon : plus performant que les modèles existants pour se protéger contre la reconnaissance faciale
Développé par une équipe de recherche de Georgia Tech et de l’Université de Hong Kong, Chameleon vise deux objectifs principaux. Celui de protéger l’identité de la personne tout en préservant une différence visuelle minimale avec les photos originales.
Les tests ont d’ailleurs démontré que Chameleon surpasse les principaux modèles existants en termes de performance et d’efficacité.
À l’avenir, les chercheurs aimeraient étendre les applications de Chameleon. Notamment pour empêcher l’utilisation non autorisée d’images dans la formation de modèles d’intelligence artificielle générateurs.
Ils prévoient également de publier le code de Chameleon sur GitHub afin de permettre à d’autres de poursuivre ce travail de protection de la vie privée des données visuelles.
- Partager l'article :