in , ,

Meta encadre l’IA dans les pubs politiques canadiennes

Meta exige des annonceurs de préciser s'il utilise l'IA pour ses publicités

Alors que les élections fédérales canadiennes approchent, Meta renforce ses règles de transparence publicitaire. Désormais, tout annonceur devra déclarer s’il utilise de l’IA pour créer ou modifier des publicités politiques ou sociales.

Cette mesure vise à limiter l’impact des contenus trompeurs générés par l’IA. Effectivement, Meta souhaite prévenir la diffusion d’images, de sons ou de vidéos artificiels pouvant manipuler l’opinion publique ou simuler de fausses déclarations.

YouTube video

Une politique stricte sur les contenus modifiés ou inventés

La règle de divulgation s’appliquera à toute publicité contenant du contenu réaliste créé ou altéré numériquement, soit par IA. Cela inclut les images photoréalistes, les enregistrements audio et les vidéos représentant des propos ou gestes fictifs. De plus, elle couvre les publicités montrant des personnes inexistantes ou des événements jamais survenus. Ainsi, Meta tente de freinerla montée de contenus synthétiques qui brouillent la frontière entre fiction et réalité, surtout en période électorale.

Un encadrement renforcé depuis les élections américaines

Cette annonce fait suite à une série de décisions prises par Meta depuis les précédentes élections américaines. En novembre, la plateforme avait déjà prolongé l’interdiction des nouvelles publicités politiques après le scrutin présidentiel. En 2023, Meta avait aussi interdit aux campagnes politiques d’utiliser ses outils publicitaires alimentés par l’IA. Cette mesure visait à éviter la manipulation de masse via des publicités générées par IA, souvent impossibles à authentifier.

YouTube video

Des outils pour signaler l’IA au sein des contenus

Meta a également mis en place une fonction permettant aux utilisateurs de signaler les contenus générés par l’IA. Cela permet à la plateforme d’ajouter des étiquettes d’avertissement sur les images, vidéos ou fichiers audio synthétiques partagés. Cette transparence renforcée vise à aider le public à identifier plus facilement les contenus artificiels, en particulier ceux susceptibles de semer la confusion sur des sujets sensibles. Meta espère ainsi préserver l’intégrité des débats électoraux.

Un contraste avec la gestion politique aux États-Unis

Malgré ces efforts, Meta a récemment abandonné ses programmes de vérification des faits aux États-Unis. De plus, la plateforme a limité la visibilité de certains sujets controversés, tels que l’immigration ou l’identité de genre, face aux critiques conservatrices.En décembre dernier, Meta affirmait que l’IA générative avait eu peu d’impact sur ses plateformes en 2024. Toutefois, l’entreprise anticipe une montée en puissance de ces outils et souhaite encadrer leur usage, surtout dans un contexte électoral.

YouTube video

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *