in

Scandale, Gemini génère des chevaliers médiévaux et des nazis noirs !

, l’IA conversationnelle de , a été accusée de produire des représentations inexactes de l’histoire. Ces erreurs ont déclenché une polémique, poussant l’entreprise à présenter ses excuses et à suspendre temporairement la fonctionnalité de génération de personnes par son IA.

La génération d’images de personne suspendue temporairement par Google

YouTube video

Fin 2023, Google a dévoilé Gemini, son grand modèle de langage. La firme a ensuite rebaptisé son IA conversationnelle Bard sous le même nom. Gemini est capable de générer du texte à la manière de ainsi que de créer des images à l’instar de DALL-E 3 et de .

L’utilisateur décrit ses requêtes et l’IA génère des images fidèles à la description. Cependant, la fonctionnalité de génération d’images est actuellement indisponible. En effet, Google a temporairement suspendu cette option suite aux récentes controverses entourant les représentations historiques produites par l’IA.

L’IA de Google ne génère que des personnes à la peau noire

Des utilisateurs ont découvert des failles dans le système de génération d’images de Google. Lorsqu’ils demandaient à créer des personnages historiques, Gemini générait souvent des personnes avec des couleurs de peau inexactes par rapport au contexte historique.

Par exemple, des prompts pour produire des soldats allemands en 1943 ou des Vikings ont généré des images de personnes noires, ce qui est historiquement incorrect. De même, les représentations de figures historiques telles que les Pères fondateurs des États-Unis, des chevaliers médiévaux ou même le Pape, montraient fréquemment des personnages à la peau foncée.

Les hommes blancs sont quasiment absents des résultats générés par Gemini pour ces types de requêtes.

Sur le réseau social X, des utilisateurs ont accusé Gemini de ce fait. Un ancien employé de Google a même dit que l’entreprise refusait de reconnaître l’existence des Blancs. Cette controverse a même pris une tournure politique. Des influenceurs d’extrême droite aux États-Unis ont accusé Google de vouloir changer l’histoire avec des images inexactes et d’effacer la représentation des populations blanches.

Google reconnaît ses erreurs et s’engage à corriger le tir

Les modèles d’IA générative font souvent face à des critiques concernant l’amplification des stéréotypes raciaux. Soucieux d’éviter toute discrimination et de se distinguer des autres IA, Google a tenté d’imposer une diversité accrue à son IA Gemini. Malheureusement, cette approche n’a pas donné les résultats escomptés et a conduit à des incohérences historiques.

Google reconnaît ses erreurs et présente ses excuses. L’entreprise travaille actuellement pour corriger ces biais dans son modèle. Mais cette controverse témoigne également de l‘engouement croissant pour Gemini. Le géant américain devra alors relever le défi de concilier précision historique et diversité, afin de regagner la confiance des utilisateurs.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *