in , , , ,

Quand l’IA décide de votre avenir : l’histoire de Mary Louis et la lutte contre SafeRent

Les décisions prises par des algorithmes influencent désormais des aspects cruciaux de la vie quotidienne. L’histoire de Mary Louis, refusée pour un logement à cause d’un score généré par l’IA, illustre les dangers de ces systèmes et leur impact sur les plus vulnérables.

L’algorithme qui a brisé un rêve

Mary Louis, agent de sécurité dans le Massachusetts, rêvait de louer un appartement dans une banlieue paisible. Malgré une excellente référence de son ancien propriétaire, elle a été rejetée par un système algorithmique. SafeRent, un logiciel d’évaluation locative, a jugé son score insuffisant, sans fournir d’explications claires sur le calcul.

Ce refus a forcé Louis à se tourner vers une option plus coûteuse. Son expérience n’est pas un cas isolé. Effectivement, des centaines de locataires utilisant des bons de logement se sont retrouvés dans des situations similaires. Ce problème met en lumière une discrimination possible envers les communautés noires et hispaniques, souvent désavantagées par les critères des algorithmes.

Un procès pour faire changer les choses

En 2022, Louis, avec plus de 400 autres locataires, a intenté un procès contre SafeRent pour discrimination. Ils ont ainsi allégué que l’algorithme accordait systématiquement des scores plus faibles aux locataires noirs et hispaniques. De ce fait, les bons de logement, censés rassurer les propriétaires, n’étaient pas pris en compte par le logiciel. D’ailleurs, cela amplifie les inégalités.

SafeRent a finalement accepté un accord. En plus de verser 2,3 millions de dollars, l’entreprise a suspendu l’utilisation de son système de notation pendant cinq ans. Ce cas est devenu emblématique d’un problème plus vaste : les biais intégrés aux algorithmes utilisés dans des décisions importantes comme le logement ou l’emploi.

YouTube video

L’IA au service des inégalités

Des experts, comme Kevin de Liban, soulignent que les systèmes d’IA ne sont pas toujours basés sur des données fiables. Des hypothèses erronées et des biais statistiques influencent les décisions. Parfois, cela entraine des résultats absurdes ou injustes. Ces algorithmes manquent de transparence et rendent ainsi difficile toute contestation des décisions prises.

Un rapport récent a révélé que les systèmes d’IA affectent la vie de millions d’Américains à faible revenu. Ces outils interviennent dans des domaines essentiels comme les soins de santé, l’éducation ou l’emploi. Pourtant, peu de lois encadrent leur utilisation en plus de laisser place à des dérives.

Une réglementation encore insuffisante

Malgré les efforts des régulateurs fédéraux, les lois peinent à suivre l’évolution rapide de l’IA. Le décret du président Biden visait à limiter les discriminations liées aux algorithmes, mais des changements politiques pourraient réduire ces avancées. Dans ce contexte, les procès comme celui de Louis deviennent cruciaux pour tenir les entreprises responsables.

Cependant, ces démarches restent coûteuses et longues. Sans régulation claire et efficace, les entreprises technologiques continuent d’exploiter ces outils, au détriment des populations les plus fragiles. L’affaire SafeRent montre la voie, mais la lutte pour une IA équitable est encore loin d’être terminée.

YouTube video
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *