Alors que les élections fédérales canadiennes approchent, Meta renforce ses règles de transparence publicitaire. Désormais, tout annonceur devra déclarer s’il utilise de l’IA pour créer ou modifier des publicités politiques ou sociales.
Cette mesure vise à limiter l’impact des contenus trompeurs générés par l’IA. Effectivement, Meta souhaite prévenir la diffusion d’images, de sons ou de vidéos artificiels pouvant manipuler l’opinion publique ou simuler de fausses déclarations.
Une politique stricte sur les contenus modifiés ou inventés
La règle de divulgation s’appliquera à toute publicité contenant du contenu réaliste créé ou altéré numériquement, soit par IA. Cela inclut les images photoréalistes, les enregistrements audio et les vidéos représentant des propos ou gestes fictifs. De plus, elle couvre les publicités montrant des personnes inexistantes ou des événements jamais survenus. Ainsi, Meta tente de freinerla montée de contenus synthétiques qui brouillent la frontière entre fiction et réalité, surtout en période électorale.
Un encadrement renforcé depuis les élections américaines
Cette annonce fait suite à une série de décisions prises par Meta depuis les précédentes élections américaines. En novembre, la plateforme avait déjà prolongé l’interdiction des nouvelles publicités politiques après le scrutin présidentiel. En 2023, Meta avait aussi interdit aux campagnes politiques d’utiliser ses outils publicitaires alimentés par l’IA. Cette mesure visait à éviter la manipulation de masse via des publicités générées par IA, souvent impossibles à authentifier.
Des outils pour signaler l’IA au sein des contenus
Meta a également mis en place une fonction permettant aux utilisateurs de signaler les contenus générés par l’IA. Cela permet à la plateforme d’ajouter des étiquettes d’avertissement sur les images, vidéos ou fichiers audio synthétiques partagés. Cette transparence renforcée vise à aider le public à identifier plus facilement les contenus artificiels, en particulier ceux susceptibles de semer la confusion sur des sujets sensibles. Meta espère ainsi préserver l’intégrité des débats électoraux.
Un contraste avec la gestion politique aux États-Unis
Malgré ces efforts, Meta a récemment abandonné ses programmes de vérification des faits aux États-Unis. De plus, la plateforme a limité la visibilité de certains sujets controversés, tels que l’immigration ou l’identité de genre, face aux critiques conservatrices.En décembre dernier, Meta affirmait que l’IA générative avait eu peu d’impact sur ses plateformes en 2024. Toutefois, l’entreprise anticipe une montée en puissance de ces outils et souhaite encadrer leur usage, surtout dans un contexte électoral.
- Partager l'article :