in ,

Cette IA peut démasquer vos secrets, même les plus sombres

Michal Kosinski révèle des aspects troublants de votre personnalité simplement avec la reconnaissance faciale. Son travail, bien que fascinant, soulève de nombreuses questions éthiques et légales.

La développée par Michal Kosinski est capable de détecter l’intelligence, les préférences sexuelles et les tendances politiques avec une précision surprenante. A titre d’exemple, en 2021, le psychologue a fait des études avec l’IA afin de prédire les croyances politiques d’une personne.

La solution a obtenu une précision de 72 %, contre 55 % pour les humains. Ces résultats alarmants interpellent sur les questions de confidentialité et de libertés civiles. L’IA de Kosinski s’avère être un outil puissant, mais potentiellement dangereux si mal utilisé.

YouTube video

Le côté obscur de la reconnaissance faciale

Les recherches de Michal risquent d’être utilisées à des fins malveillantes. Par ailleurs, les modèles ne sont pas infaillibles, ce qui pourrait mener à des erreurs préjudiciables.

Par exemple, en 2017, Kosinski a co-publié une étude sur un modèle de reconnaissance faciale capable de prédire l’orientation sexuelle avec une précision de 91 %. Suite à cette révélation, des organisations comme Human Rights Campaign et GLAAD ont dénoncé ces recherches comme « dangereuses et biaisées ». Ils craignent que cette technologie soit utilisée pour discriminer les personnes queer.

Selon les critiques, la précision de 91 % signifie également qu’il y a un risque d’erreur de 9 %. Cela peut conduire à des discriminations injustes et à des préjugés. Cette situation illustre parfaitement le côté obscur et les dangers potentiels de la reconnaissance faciale.

La reconnaissance faciale de Kosinski révèle vos secrets troublants

Des injustices déjà bien réelles

La reconnaissance faciale a déjà montré ses limites et ses dangers. Rite Aid a été accusé de cibler injustement des minorités comme des voleurs. De plus, Macy’s a faussement accusé un homme d’un vol violent. Ces cas illustrent que cette technologie pourrait être utilisée pour discriminer et porter atteinte aux droits individuels.

En somme, les erreurs de reconnaissance peuvent avoir des conséquences désastreuses pour les personnes impliquées. Les exemples de Rite Aid et Macy’s ne sont que la pointe de l’iceberg. Avec l’augmentation de l’utilisation de la technologie, ces incidents risquent de devenir plus fréquents et plus graves.

Des injustices déjà bien réelles

Un avertissement ou un guide pour malfaiteurs ?

D’après Kosinski, ses travaux visent à alerter les décideurs politiques sur les dangers potentiels de cette technologie. Cependant, publier ces recherches revient à fournir des instructions détaillées pour des utilisations malveillantes. Cette double facette rend la question éthique encore plus complexe.

En somme, bien que Kosinski cherche à prévenir des dérives potentielles, il court également le risque d’armer ceux qui souhaitent exploiter cette technologie à des fins néfastes. La société doit donc naviguer avec prudence dans ce domaine. Il faut également équilibrer innovation et protection des droits individuels.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *