L’essor des outils d’intelligence artificielle a révolutionné la création de contenu, permettant de générer des photos et vidéos d’une réalité saisissante. Pour plus de transparence, Meta annonce la mise en place de l’étiquetage automatique des images générées par l’IA sur ses plateformes.
Un outil pour détecter les images non authentiques
Meta appose déjà un filigrane sur les images générées par Imagine with Meta, son propre outil de génération d’images par IA. L’entreprise va étendre cette mesure aux images provenant d’autres IA comme Midjourney et DALL-E 3. Cela concerne les images publiées sur ses plateformes. Cette étiquette permettra aux utilisateurs de distinguer facilement les images réelles des images créées artificiellement. Ce qui contribuera à une meilleure compréhension de la nature et de l’origine des contenus partagés.
Ainsi, les utilisateurs des médias sociaux de Meta pourront bientôt voir sur leurs fils d’actualité des images comportant des étiquettes. Meta n’a pas fourni de détails précis sur le fonctionnement de son outil de détection des deepfakes. Toutefois, l’entreprise a annoncé qu’elle collabore avec des partenaires du secteur. L’objectif est de renforcer les initiatives existantes en matière d’authenticité des contenus.
Lutter contre la désinformation électorale et les deepfakes
L’avènement de l’intelligence artificielle dans la création d’images ouvre un monde de possibilités créatives. Cependant, cette innovation s’accompagne aussi d’un défi majeur : la désinformation sur les réseaux sociaux. La publication de contenus générés par l’IA sans indication claire peut induire les utilisateurs en erreur.
C’est dans ce contexte que Meta a pris des mesures pour lutter contre ce phénomène. L’entreprise effectue un étiquetage automatique des images générées par l’IA sur ses plateformes, notamment Facebook, Threads et Instagram. Cette initiative vise à éviter la propagation de fausses informations, à l’approche des élections présidentielles américaines. Cela permet aussi de lutter contre la diffusion de faux nus non consensuels des célébrités. Ce fut le cas récemment avec Taylor Swift et le deepfake pornographique dont elle a été victime.
Meta appliquera les étiquettes indiquant qu’une image est générée par IA dans toutes les langues supportées par ses applications. L’entreprise souhaite d’ailleurs mettre en place cet outil le plus rapidement possible. Ceci, afin de garantir une meilleure transparence dans la diffusion d’images sur ses plateformes.
Des sanctions contre les contenus audio et vidéo synthétiques non signalés
En plus d’apposer des étiquettes automatiques sur les images générées par l’IA, Meta met en place des mesures pour les contenus audio et vidéo. La plateforme exige des internautes qui diffusent des contenus audio et vidéo de mentionner si ceux-ci ont été créés ou modifiés à l’aide d’algorithmes et de techniques d’IA.
Meta offre aussi aux utilisateurs la possibilité de signaler les contenus synthétiques suspects. Si le diffuseur omet d’indiquer l’origine numérique du contenu, des sanctions seront appliquées.
- Partager l'article :