AI screening

Herramienta de Selección de Arrendadores de IA Termina Prácticas Discriminatorias Tras Acuerdo

AI landlord screening tool SafeRent ceases discriminatory tenant scoring practices.

Acuerdo del Herramienta de Evaluación de AI de SafeRent: Un Caso Histórico Contra Prácticas Discriminatorias

SafeRent, una herramienta de evaluación de IA líder empleada por propietarios para evaluar inquilinos potenciales, ha alcanzado un acuerdo significativo para reformar sus prácticas con respecto a los solicitantes que utilizan cupones de vivienda. El juez federal de EE. UU. Angel Kelley ha otorgado la aprobación final para un acuerdo que asciende a aproximadamente $2.3 millones, destinado a combatir la discriminación contra inquilinos basándose en ingresos y raza.

Fondo del Caso

Este acuerdo histórico surge de una demanda colectiva presentada en Massachusetts en 2022. La demanda afirmó que el sistema de puntuación de SafeRent afectaba desproporcionadamente a las personas que utilizaban cupones de vivienda, perjudicando particularmente a solicitantes negros y hispanos. Las alegaciones incluían violaciones de las leyes de Massachusetts y la Ley de Vivienda Justa, que está diseñada para prevenir la discriminación en la vivienda.

El Controversial Sistema de Puntuación de SafeRent

Según la demanda inicial, el algoritmo de SafeRent asigna a los inquilinos potenciales un Puntuación SafeRent, utilizando varios factores como historiales de crédito y deudas que no están relacionadas con el historial de alquiler. Esta puntuación influye en las decisiones de los propietarios sobre las solicitudes de alquiler. Sin embargo, los críticos resaltaron la naturaleza opaca de este sistema de puntuación, ya que los propietarios a menudo carecían de información sobre cómo se calculaban las puntuaciones.

Impacto en Grupos Minoritarios

La demanda reveló que el sistema de puntuación de SafeRent tendía a asignar puntuaciones más bajas a los inquilinos negros e hispanos así como a quienes dependían de cupones de vivienda, lo que llevaba a denegaciones injustas de solicitudes de vivienda. Este patrón planteó serias preguntas sobre la transparencia y la equidad de las evaluaciones de inquilinos impulsadas por algoritmos.

Cambios Clave Mandatados por el Acuerdo

Bajo los términos del acuerdo de cinco años, ocurrirán cambios significativos en cómo opera SafeRent:

  • No se mostrarán puntuaciones de SafeRent para solicitantes que utilicen cupones de vivienda.
  • Los propietarios ya no recibirán recomendaciones para aceptar o denegar solicitudes basadas únicamente en puntuaciones de SafeRent.
  • Las solicitudes de alquiler de usuarios de cupones de vivienda ahora se evaluarán basándose en el historial completo del solicitante, en lugar de una sola puntuación.

Declaraciones de Grupos de Defensa

Shennan Kavanagh, el director del National Consumer Law Center, afirma que "las puntuaciones de crédito y puntuaciones modeladas de manera similar, como las Puntuaciones SafeRent, se basan en información que solo se ha probado para predecir el reembolso de las obligaciones crediticias. No hay evidencia de que tales datos sean predictivos de que los inquilinos paguen el alquiler." Este sentimiento refleja la creciente preocupación por la dependencia de algoritmos de IA en la vivienda y sus implicaciones para prácticas de vivienda justa.

Distribución de los Fondos del Acuerdo

Los fondos recaudados del acuerdo se asignarán a solicitantes de alquiler en Massachusetts que enfrentaron desafíos de vivienda debido a los sesgos en el sistema de puntuación de inquilinos de SafeRent. SafeRent, aunque sostiene que su sistema de puntuación cumple con las leyes, reconoció que un litigio prolongado desviaría su misión principal de proporcionar a los propietarios herramientas esenciales para la evaluación de inquilinos.

La Gran Imagen

El caso de SafeRent destaca una tendencia más amplia de herramientas de gestión de propiedades impulsadas por algoritmos que enfrentan un escrutinio y desafíos legales respecto a su impacto en la equidad de la vivienda. En agosto, el Departamento de Justicia tomó medidas contra RealPage, alegando que su software de precios algorítmicos contribuyó a incrementar los alquileres.

Conclusión

A medida que la conversación en torno a la tecnología y la vivienda justa continúa, el acuerdo de SafeRent sirve como un recordatorio crucial del potencial de sesgos sistémicos en sistemas de IA y la necesidad de transparencia en los procesos de evaluación de inquilinos. Esta decisión legal marca un paso significativo hacia la promoción de un entorno de vivienda más justo para todos los individuos, especialmente aquellos que utilizan cupones de vivienda.

Puede que te interese

iPhone showing default tap-to-pay app selection in iOS 18.2
D-Link routers needing replacement due to security vulnerabilities

Dejar un comentario

Todos los comentarios se revisan antes de su publicación.

Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.