in

L’IA à transformé cette asiatique en une blanche

Récemment, une étudiante asiatique a vu sa photo complètement transformée par un outil d'IA, qui lui a donné des traits caucasiens. Cette situation soulève des questions sur les biais raciaux intégrés dans ces systèmes et sur l'importance de créer des IA plus inclusives.

Rona Wang, une jeune étudiante asiatique du MIT, a décidé d'utiliser un outil d'IA pour améliorer ses photos professionnelles. Elle souhaitait ainsi obtenir une image plus adaptée à son profil LinkedIn. Cependant, après avoir soumis sa photo à l'IA, elle s'est retrouvée avec un visage complètement transformé : peau blanche et yeux bleus. Ce résultat a poussé Rona Wang à s'interroger sur les algorithmes utilisés par ces outils d'IA et sur la possibilité qu'ils soient biaisés envers certaines races. Bien qu'elle ne prétende pas que l'outil soit raciste, elle souligne néanmoins des limites importantes à prendre en compte et à dépasser.

Des préjugés intégrés ?

L'une des raisons possibles à cette transformation inattendue est que les outils d'IA sont conçus et entraînés à partir de données existantes. Si ces données sont principalement composées d'images de personnes caucasiennes, il est possible que l'algorithme ait du mal à traiter correctement les images de personnes d'autres origines. De plus, si les concepteurs de ces outils ne prennent pas en compte la diversité des races et des cultures lors de la création des algorithmes, cela peut également contribuer à renforcer certains biais raciaux.

Selon une étude menée par l'AI Now Institute, seulement 18% des auteurs de publications scientifiques sur l'IA étaient des femmes en 2020. D'après une autre enquête réalisée par Wired, moins de 10% des chercheurs en IA sont issus de minorités ethniques sous-représentées aux États-Unis.

Améliorez la performance de vos projets grâce à l’IA générative ?

Ces statistiques montrent que la diversité au sein de la communauté des développeurs d'IA est encore très limitée, ce qui pourrait expliquer la présence de préjugés raciaux dans certains outils.

Un impact sur l'image de soi et la représentativité

La situation vécue par Rona Wang met en lumière l'impact potentiellement négatif de ces outils d'IA sur l'image de soi des personnes concernées. En effet, voir son visage transformé pour correspondre à des critères de beauté ou de professionnalisme spécifiques peut être blessant et remettre en question sa propre identité. De plus, cela soulève également la question de la représentativité et de l'inclusivité dans le domaine de l'IA. Si ces outils continuent à privilégier certains groupes ethniques, il se peut que d'autres soient marginalisés ou exclus, ce qui peut avoir un impact sur leur intégration professionnelle et sociale.

Face à ces problèmes, il est essentiel de travailler à rendre les outils d‘IA plus inclusifs et éthiques. Afin d'y parvenir, il convient d'encourager la diversité au sein des équipes de développement d'IA, en recrutant des personnes issues de différents groupes ethniques et culturels.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *