Les algorithmes d’IA de Facebook font sujet de racisme pour avoir pris des hommes noirs pour des primates.
Les systèmes d’intelligence artificielle sont souvent remis en cause pour présenter des biais. L’outil de recommandation de Facebook vient une fois de plus de confirmer ces propos, en qualifiant des personnes de couleur noire de primates.
Facebook et racisme : une IA prend des hommes noirs pour des primates
Facebook est sans doute l’un des réseaux sociaux les plus populaires. Et pourtant, il est loin d’être parfait. Une vidéo publiée récemment par The Daily Mail montrait des policiers se disputer avec des civils et des hommes noirs. À la fin de la vidéo, une IA de recommandation a demandé aux utilisateurs s’ils souhaitaient continuer de visionner des « vidéos sur des primates ».
En s’excusant pour l’erreur qu’elle a qualifiée d’inacceptable et offensante, l’entreprise a désactivé la fonctionnalité. De plus, Facebook a déclaré que ses algorithmes ne sont pas parfaits et doivent être améliorés.
Pour rappel, l’entreprise avait reformé son équipe d’équité et d’inclusion en juillet dernier. Cette restructuration visait à étudier l’impact des algorithmes du réseau social sur les utilisateurs minoritaires, à savoir les Noirs, les Hispaniques, etc.
Par ailleurs, ce n’est pas la première fois que ces algorithmes montrent une défaillance. En effet, les IA des réseaux sociaux, non seulement Facebook, mais également TikTok ou d’autres, sont souvent liées au concept de racisme.
L’IA et les biais raciaux
Outre les réseaux sociaux, les questions de biais sont également des sujets de débats sur l’utilisation d’IA dans divers domaines. Cela peut concerner les algorithmes de reconnaissance faciale et même les dispositifs médicaux. Dans le cadre d’une correspondance individuelle, une étude dirigée par le NIST a démontré que les algorithmes présentent des taux plus élevés de faux positifs pour les Asiatiques et les Afro-Américains.
D’autre part, Google a également fait parler d’elle au sujet des biais de l’intelligence artificielle. Différent du cas de Facebook, un chercheur en éthique de l’IA a mis en évidence des défauts dans certains modèles d’apprentissage de langue de Google. Cela lui a valu un licenciement, tandis que l’entreprise a reçu des critiques de chercheurs, d’universitaires et même d’utilisateurs.
- Partager l'article :