in

Des chercheurs alertent sur l’essor des deepfakes dénudés

Une tendance préoccupante retient l’attention des chercheurs. Ils ont récemment constaté une augmentation alarmante de l’utilisation de logiciels de deepfakes dénudés. Ces outils dopés par l’IA permettent de déshabiller virtuellement des individus et suscitent des préoccupations en matière de confidentialité et d’éthique.

Un nombre astronomique de visites sur les sites et applications de deepfakes

C’est la société Graphika spécialisée dans l’analyse des réseaux sociaux qui a fait ce constat inquiétant. Selon leurs recherches, les sites web et applications de deepfakes ont enregistré 24 millions de personnes de visiteurs rien qu’au cours du mois de septembre. Basés sur l’intelligence artificielle, ceux-ci offrent aux utilisateurs la possibilité de manipuler des images pour créer de fausses photos nues d’une personne. Ces outils ciblent principalement des femmes. À partir de leurs photos classiques accessibles au public, ces logiciels de deepfakes peuvent générer des photos dénudées réalistes.

Eva Galperin, directrice de la cybersécurité à l’Electronic Frontier Foundation souligne que ces logiciels de deepfakes nus sont de plus en plus adoptés par des individus ordinaires, tels que des lycéens ou des étudiants universitaires, et qu’ils ciblent également des personnes ordinaires.

Promotion active des applications de deepfakes sur les plateformes sociales

Un autre aspect intrigant révélé par Graphika est que ces services de « nudify » sont même activement promus sur les plateformes de médias sociaux. D’après leur analyse, le nombre de liens faisant la promotion de ces applications de déshabillage sur des plateformes telles que X et Reddit a augmenté de façon spectaculaire. Ceci dépasse les 2400 % depuis le début de l’année.

Ils ont notamment repéré sur X une image qui faisait la promotion d’une application incitant les utilisateurs à générer des versions dénudées de photos et à les partager. Ce qui encourage le harcèlement. De plus, plusieurs de ces applications ont investi dans des contenus sponsorisés sur YouTube, la plateforme sociale de Google. Cela leur a accordé une visibilité accrue dans les résultats de recherche des internautes avec des mots-clés tels que « nudify ».

Les plateformes en question ont réagi. Selon un porte-parole de Google, l’entreprise a supprimé les annonces en violation de sa politique. De son côté, un représentant de Reddit a également indiqué que leur plateforme interdit les faux contenus à caractère sexuel. TikTok et Meta, pour leur part, ont pris des mesures en bloquant le mot-clé « nudify ». Ces plateformes avertissent aussi les utilisateurs qui tentent de l’utiliser dans leurs recherches.

L’urgence de mettre en place des réglementations sur l’IA

Les deepfakes dénudés générés sont clairement non consensuels. Ils constituent une violation de la vie privée des individus concernés. Ces photos sont extraites des réseaux sociaux sans le consentement préalable des personnes impliquées. De plus, ces logiciels sont en open source. Ce qui signifie que n’importe qui peut manipuler les photos d’une personne et l’exposer au harcèlement avec les versions nues générées.

Plusieurs experts IA ont appelé depuis des mois à l’instauration de réglementations visant à encadrer la création d’outils IA. Et face à ces constats établis par Graphika, il devient urgent d’adopter des mesures proactives contre l’utilisation abusive de cette technologie.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *