in , ,

Google aurait-il sponsorisé des applications de deepfake ? Découvrez les réponses ici !

accepte de l’argent pour promouvoir des applications d’IA qui produisent des images deepfake pornographiques non consensuelles. Cette révélation, faite par 404 Media, place le géant de la au cœur d’une polémique. Ces applications, souvent utilisées pour créer des faux nus, posent de sérieux problèmes éthiques et légaux.

YouTube video

En effectuant des recherches de termes comme « applications de déshabillage » ou « meilleurs nus deepfake », des publicités payantes pour des sites proposant des services de « NSFW AI Image Generator » apparaissent. Ces outils d’IA permettent de générer des images explicites de personnes réelles sans leur consentement.

Google a été vivement critiqué pour son incapacité à enrayer la prolifération de ces deepfakes dans ses résultats de recherche. Une simple recherche et un clic suffisent pour accéder à ces contenus. Face à ces critiques, Google a annoncé l’extension de ses politiques de recherche pour aider les victimes de faux contenus sexuellement explicites non consensuels.

Les publicités sont un élément clé du problème, comme le souligne le rapport de 404 Media. Google profite activement de publications sponsorisées faisant la publicité de ces mêmes services d’IA. Ce paradoxe soulève des questions sur l’intégrité des politiques publicitaires de Google.

Google deepfake IA

Réponse de Google

En réponse aux révélations, Google aurait pris des mesures pour supprimer les publicités et les sites Web signalés. D’après un porte-parole de Google, les services conçus pour créer du contenu sexuel ou nu synthétique ne sont pas autorisés à faire de la publicité via leurs plateformes.

Le porte-parole de Google a ajouté que le géant de la recherche enquête activement sur ce problème et suspendra définitivement les annonceurs qui enfreignent leur politique. Cependant, Google n’a pas expliqué pourquoi il avait initialement autorisé ces annonceurs à payer pour promouvoir de tels liens.

applications IA
publicités NSFW

Les dangers des deepfakes

Les deepfakes représentent un danger réel pour les victimes. Avec des outils d’IA deepfake facilement accessibles, une nouvelle vague d’incidents troublants impliquant la création de faux nus non consensuels est en hausse. Ces incidents sont particulièrement alarmants dans les collèges et les lycées, où les autorités peinent à contrôler le phénomène.

Pour Google, le défi reste immense. Le géant de la recherche doit réduire la prolifération des deepfakes sur le Web. Il doit également contrôler la facilité avec laquelle les outils pour les créer peuvent être trouvés. Ainsi, la confiance du public envers la capacité de Google à réguler ce contenu est en jeu.

YouTube video

Face à la prolifération des deepfakes, il est urgent que Google renforce ses politiques pour interdire la publicité d’applications d’IA générant des contenus non consensuels. Seule une approche proactive permettra de protéger les individus contre les abus technologiques. En somme, la transparence est essentielle pour rétablir la confiance dans les plateformes numériques

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *