Face à la frénésie de l’IA, YouTube a décidé de prendre de nouvelles mesures concernant les contenus mis en ligne sur sa plateforme. Celles-ci sont effectives à partir de 2024 et les créateurs doivent s’y conformer sous peine de sanction.
Moins de désinformation et plus de transparence
Jennifer Flannery O’Connor et Emily Moxley, qui sont toutes les deux vice-présidentes chargées de la gestion des produits de YouTube, ont fait part de leur inquiétude concernant l’utilisation des outils IA. Dans un article de blog, elles ont affirmé que l’IA booste certainement la créativité des Youtubeurs. Elle améliore également l’expérience des utilisateurs de la plateforme. Toutefois, il est aussi crucial de trouver un équilibre entre les opportunités qu’offre cette technologie et la protection de la communauté YouTube.
Les outils IA actuels permettent aux créateurs de réaliser des vidéos réalistes, susceptibles d’induire en erreur les personnes qui les regardent. Pour ne pas les entraîner dans la désinformation, la plus grosse plateforme de vidéos d’Internet a alors mis en place de nouvelles règles. Celles-ci portent sur la transparence des vidéos créées avec les appuis de l’IA générative. « Cela est particulièrement important dans les cas où le contenu aborde des sujets sensibles, tels que les élections, les conflits en cours et les crises de santé publique, ou les responsables publics », ont annoncé Emily Moxley et Jennifer Flannery O’Connor.
L’obligation de divulguer l’usage de l’IA
Les outils d’IA émergent dans tous les secteurs. Le géant des vidéos numériques ne compte pas interdire l’utilisation de ces technologies pour la réalisation des contenus mis en ligne sur sa plateforme. Au contraire, afin d’aider les créateurs, YouTube a annoncé, il y a quelques mois, une série d’outils alimentés par l’IA comme Dream Screen et Aloud. Si ceux-ci sont encore lancés de façon limitée cette année, YouTube compte réaliser un déploiement de ces outils à une échelle plus grande l’année prochaine. Avec les nouvelles directives prises, la plateforme encourage désormais l’utilisation de ces technologies de manière responsable et affirme sa volonté de renforcer sa lutte contre les deepfakes.
Dans le cadre de ces nouvelles mesures, les Youtubeurs doivent informer les internautes s’ils ont utilisé des outils d’IA pour créer ou modifier leurs vidéos. Ceci, grâce aux nouvelles options mises à leur disposition. Ils devront notamment ajouter une étiquette dans la description de leurs contenus. Puis, pour les vidéos abordant des sujets sensibles tels que la santé ou encore la politique, l’étiquette apparaît directement sur la vidéo.
Des sanctions pour ceux qui enfreindront les règles
Lorsque ces nouvelles directives entreront en vigueur, la plateforme sanctionnera les créateurs qui ne les respectent pas. Entre autres, elle supprimera leur contenu et ils seront exclus du programme partenaire YouTube.
YouTube déploiera des outils IA pour détecter les contenus qui enfreignent ces règles. Elle offre aussi aux particuliers la possibilité d’envoyer une réclamation pour atteinte à la vie privée si des créateurs ont réalisé, sans leur autorisation, des contenus avec leur voix ou leur visage. De même, les maisons de disques et les représentants d’artistes peuvent demander le retrait des contenus musicaux créés avec l’aide de l’IA pour imiter leur voix.
- Partager l'article :