in

Une IA qui lit dans votre visage

IA visage

Les recherches de Michal Kosinski sur l' suscitent de vives inquiétudes éthiques. Son IA prétend révéler des informations sensibles simplement en scannant le visage.

L'IA de Stanford peut-elle vraiment lire en nous ?

Michal Kosinski, psychologue à l'Université de Stanford, a développé une IA . Cette IA peut déterminer votre intelligence, préférences sexuelles et convictions politiques. Cette IA utilise un simple scan facial pour déduire ces informations personnelles. Kosinski rapporte des précisions impressionnantes, mais cela soulève des questions éthiques importantes.

Les travaux de Kosinski rappellent la phrénologie, une pseudoscience du XVIIIe siècle. Cependant, Kosinski affirme que ses recherches ne relèvent pas de cette pratique désuète. Son objectif principal est d'alerter les décideurs politiques sur les dangers potentiels. De plus, il souhaite mettre en lumière les risques liés à la reconnaissance faciale.

Des résultats surprenants

Kosinski a publié une étude en 2021 montrant les capacités de son IA. Effectivement, cette dernière pouvait prédire les convictions politiques avec une précision de 72 %. Cette précision est supérieure à celle des humains, qui est de 55 %. La pourrait ainsi avoir des implications importantes pour la .

Kosinski considère ses recherches comme un avertissement. Pourtant, elles pourraient ouvrir la porte à des discriminations dangereuses. De plus, l'utilisation de cette technologie dans la société actuelle pourrait aggraver les conflits culturels. La précision des modèles n'étant jamais parfaite, des erreurs peuvent survenir.

YouTube video

Les risques de discrimination et des exemples d'utilisation concret

En 2017, Kosinski a publié un article sur la prédiction de l'orientation sexuelle. Cette étude a suscité de vives critiques de la part de la Human Rights Campaign et de GLAAD. Ils ont qualifié cette recherche de dangereuse et erronée, car elle pourrait servir à discriminer les personnes homosexuelles. L'IA pourrait ainsi être utilisée à des fins malveillantes.

Les cas d'utilisation abusive de la reconnaissance faciale sont nombreux. Rite Aid a été accusé de cibler injustement les minorités pour des vols à l'étalage. De même, Macy's a accusé à tort un homme de vol violent. Ces exemples montrent les dangers potentiels de cette technologie.

 Un avertissement nécessaire

Kosinski publie ses recherches pour avertir des dangers potentiels. Cependant, ces publications pourraient aussi inspirer de nouvelles méthodes de discrimination. Ainsi, ses travaux, bien que motivés par de bonnes intentions, soulèvent des questions éthiques cruciales. La société doit être vigilante face à ces avancées technologiques.

Les débats sur l'identité et la reconnaissance faciale sont de plus en plus vifs. Par exemple, la reconnaissance faciale pourrait exacerber les tensions sur l'attribution de genres incorrects. Ces technologies, si mal utilisées, pourraient engendrer des désastres sociaux. Il est donc essentiel de réguler leur utilisation pour protéger les libertés civiles.

La nécessité d'une régulation stricte

Kosinski appelle à une régulation stricte de la reconnaissance faciale. Les décideurs politiques doivent prendre en compte les implications éthiques de ces technologies. Une régulation adéquate pourrait limiter les abus potentiels et protéger les individus. La société doit agir rapidement pour éviter les dérives technologiques.

Les recherches de Kosinski montrent le potentiel et les dangers de la reconnaissance faciale. La société doit trouver un équilibre entre innovation et protection des droits individuels. L'IA de Kosinski pourrait soit apporter des avancées majeures, soit causer des préjudices considérables. Il est essentiel de poursuivre ce débat pour garantir un futur éthique et sécurisé.

YouTube video

L'avenir de la reconnaissance faciale dépendra des choix que nous faisons aujourd'hui. La société doit décider comment utiliser cette technologie de manière responsable. Les travaux de Kosinski nous rappellent que chaque innovation comporte des risques. La vigilance et l'éthique doivent guider notre approche de l'IA.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *