Règlement de l'outil de dépistage AI de SafeRent : Un cas emblématique contre les pratiques discriminatoires
SafeRent, un outil de dépistage AI de premier plan employé par les propriétaires pour évaluer les locataires potentiels, a atteint un règlement significatif pour réformer ses pratiques concernant les candidats utilisant des bons de logement. Le juge de district américain Angel Kelley a accordé l'approbation finale pour un règlement d'environ 2,3 millions de dollars, visant à lutter contre la discrimination envers les locataires en fonction de leurs revenus et de leur race.
Contexte de l'affaire
Ce règlement emblématique découle d'une action collective intentée dans le Massachusetts en 2022. Le procès a affirmé que le système de notation de SafeRent affectait de façon disproportionnée les individus utilisant des bons de logement, nuisant particulièrement aux candidats noirs et hispaniques. Les allégations comprenaient des violations des lois du Massachusetts et de la Fair Housing Act, qui est conçue pour prévenir la discrimination en matière de logement.
Le système de notation controversé de SafeRent
Selon la plainte initiale, l'algorithme de SafeRent attribue aux locataires potentiels un SafeRent Score, utilisant divers facteurs tels que les antécédents de crédit et les dettes qui ne sont pas liées à l'historique locatif. Ce score influence les décisions des propriétaires sur les demandes de location. Cependant, les critiques ont souligné la nature opaque de ce système de notation, car les propriétaires manquaient souvent d'informations sur la manière dont les scores étaient calculés.
Impact sur les groupes minoritaires
La plainte a révélé que le système de notation de SafeRent avait tendance à attribuer des scores plus bas aux locataires noirs et hispaniques ainsi qu'à ceux qui dépendent de bons de logement, entraînant des refus injustes de demandes de logement. Ce schéma a soulevé de sérieuses questions sur la transparence et l'équité des évaluations des locataires générées par algorithmes.
Principaux changements imposés par le règlement
En vertu des termes de l'accord de règlement de cinq ans, des changements significatifs interviendront concernant le fonctionnement de SafeRent :
- Aucun SafeRent Score ne sera affiché pour les candidats utilisant des bons de logement.
- Les propriétaires ne recevront plus de recommandations pour accepter ou refuser des demandes uniquement sur la base des SafeRent Scores.
- Les demandes de location des utilisateurs de bons de logement seront désormais évaluées sur la base de l'ensemble du dossier du candidat, plutôt que sur un score unique.
Déclarations des groupes de défense
Shennan Kavanagh, directeur du National Consumer Law Center, déclare que "les scores de crédit et les scores modélisés de manière similaire, tels que les SafeRent Scores, s'appuient sur des informations qui ont seulement été testées pour prédire le remboursement des obligations de crédit. Il n'existe aucune preuve que de telles données soient prédictives des locataires payant leur loyer." Ce sentiment reflète la préoccupation croissante concernant la dépendance aux algorithmes AI dans le secteur du logement et ses implications pour les pratiques de logement équitables.
Répartition des fonds du règlement
Les fonds collectés du règlement seront alloués aux candidats à la location dans le Massachusetts qui ont rencontré des difficultés de logement en raison des biais dans le système de notation des locataires de SafeRent. SafeRent, tout en maintenant que son système de notation est conforme aux lois, a reconnu qu'un litige prolongé nuirait à sa mission principale de fournir aux propriétaires des outils essentiels de dépistage des locataires.
Une vue d'ensemble
Le cas SafeRent met en lumière une tendance plus large des outils de gestion immobilière basés sur des algorithmes faisant l'objet d'un examen et de contestations juridiques concernant leur impact sur l'équité en matière de logement. En août, le ministère de la Justice a engagé des actions contre RealPage, affirmant que son logiciel de tarification algorithmique contribuait à des loyers exorbitants.
Conclusion
Alors que la conversation autour de la technologie et du logement équitable se poursuit, le règlement de SafeRent sert de rappel crucial sur le potentiel de biais systémique dans les systèmes AI et la nécessité de transparence dans les processus de dépistage des locataires. Cette décision judiciaire marque une étape significative vers la promotion d'un environnement de logement plus équitable pour tous, en particulier pour ceux utilisant des bons de logement.
Laisser un commentaire
Tous les commentaires sont modérés avant d'être publiés.
Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.