Les outils IA font des merveilles, mais certains usages jettent une ombre sur ces innovations. Récemment, la chanteuse Taylor Swift, s’est retrouvée sous les feux de l’actualité en raison de la diffusion en ligne de nombreuses fausses images pornographiques la concernant.
Les Swifties s’activent pour protéger leur idole
Des images pornographiques mettant en scène Taylor Swift ont circulé sur la plateforme X. Elles y ont fait l’objet d’un grand nombre de partages et ont cumulé rapidement des millions de vues. Pourtant, il s’agit de deepfakes, de fausses images pornographiques générées par intelligence artificielle.
Ces contenus partagés sans consentement de la chanteuse ont piqué la curiosité des internautes. Très vite, les termes « Taylor Swift AI » et « Taylor AI » se sont hissés parmi les recherches les plus populaires des internautes sur X.
Cet évènement déclenche la colère tant de la chanteuse que de ses fans, les Swifties. Ces derniers ont déployé beaucoup d’efforts pour enfouir les images truquées au plus profond du réseau social. Pour cela, ils ont submergé la plateforme de photos ordinaires de la chanteuse en se servant des hashtags comme « Taylor Swift AI ». Résultat : ce sont ces images qui ressortent lors des recherches des internautes curieux.
À l’heure actuelle, tous ces deepfakes ont été totalement effacés de la toile. Si vous faites une recherche sur le sujet, aucune de ces images n’est plus accessible. La plateforme X a également réagi avec fermeté en bannissant le compte responsable de ces publications.
Des images générées avec Microsoft Designer
Les deepfakes concernant Taylor Swift proviennent d’un groupe Telegram. Et pour les réaliser, leurs créateurs ont utilisé Microsoft Designer, un outil de conception graphique basé sur l’intelligence artificielle. Interrogé sur cet incident, un représentant de l’entreprise a annoncé que cette pratique est strictement interdite chez Microsoft.
Néanmoins, cette situation met en évidence la possibilité d’utiliser l’IA pour produire des deepfakes pornographiques. Microsoft a fait savoir qu’elle va renforcer la sécurité de son IA.
Concernant la plateforme X d’Elon Musk, sa politique interdit aussi la nudité non consentie ainsi que les images truquées. Les fans de la chanteuse reprochent cependant à l’entreprise sa lenteur à réagir face à ces contenus. En effet, une des images a connu une diffusion massive et reste en ligne pendant 17 heures avant d’être retirée. Elle a dépassé les 45 millions de vues.
Une pratique facilitée par l’essor de l’IA
Des personnalités politiques américaines ont émis leur opinion sur cet incident. Yvette Clarke, membre démocrate de la Chambre des représentants des États-Unis, a indiqué sur X que : « Ce qui est arrivé à Taylor Swift n’est rien de nouveau ». Mais, avec la progression de l’IA, cette tendance s’accélère et il est devenu très facile de créer des deepfakes.
Joe Morelle quant à lui a lancé un appel action urgente suite à cet évènement. Il a aussi mis en garde contre les conséquences pouvant être dévastatrices de telles pratiques sur les victimes. En 2023, il a soumis un projet de loi qui vise à empêcher la création et la diffusion de deepfakes à caractère pornographique sans le consentement des personnes concernées.
La chanteuse n’a pas encore fait de commentaire public concernant ce fait. Cependant, il se pourrait qu’elle porte l’affaire devant les tribunaux.
- Partager l'article :