SafeRent KI Screening-Tool-Vergleich: Ein wegweisender Fall gegen diskriminierende Praktiken
SafeRent, ein führendes KI-Screening-Tool, das von Vermietern zur Bewertung potenzieller Mieter eingesetzt wird, hat sich auf einen bedeutenden Vergleich zur Reform seiner Praktiken bezüglich Antragstellern, die Wohnungsanträge nutzen, geeinigt. Der US-Bezirksrichter Angel Kelley hat einen Vergleich von etwa 2,3 Millionen Dollar endgültig genehmigt, der darauf abzielt, Diskriminierung gegen Mieter aufgrund von Einkommen und Rasse zu bekämpfen.
Der Hintergrund des Falls
Dieser wegweisende Vergleich ist das Ergebnis einer Sammelklage, die 2022 in Massachusetts eingereicht wurde. Die Klage behauptete, dass das Bewertungssystem von SafeRent unverhältnismäßig viele Personen, die Wohnungsanträge nutzen, betraf und insbesondere schwarzen und hispanischen Bewerbern schadete. Die Vorwürfe umfassten Verstöße gegen die Gesetze von Massachusetts und den Fair Housing Act, der dazu dient, Diskriminierung im Wohnungswesen zu verhindern.
Das umstrittene SafeRent-Bewertungssystem
Nach der ursprünglichen Klage vergibt der SafeRent-Algorithmus potenziellen Mietern einen SafeRent-Score, der verschiedene Faktoren wie Kreditgeschichte und Schulden berücksichtigt, die nicht mit der Mietgeschichte zusammenhängen. Dieser Score beeinflusst die Entscheidungen der Vermieter über Mietanträge. Kritiker hoben jedoch die intransparente Natur dieses Bewertungssystems hervor, da Vermieter oft keinen Einblick hatten, wie die Scores berechnet wurden.
Auswirkungen auf Minderheitengruppen
Die Klage offenbarte, dass das Bewertungssystem von SafeRent tendenziell niedrigere Scores an schwarze und hispanische Mieter sowie an solche vergibt, die auf Wohnungsanträge angewiesen sind, was zu unfairen Ablehnungen von Wohnungsanträgen führte. Dieses Muster wirft ernsthafte Fragen zur Transparenz und Fairness algorithmusbasierter Mieterbewertungen auf.
Wesentliche Änderungen, die durch den Vergleich auferlegt werden
Nach den Bedingungen des fünfjährigen Vergleichsvertrags werden wesentliche Änderungen daran vorgenommen, wie SafeRent funktioniert:
- Für Antragsteller, die Wohnungsanträge nutzen, werden keine SafeRent-Scores mehr angezeigt.
- Vermieter erhalten keine Empfehlungen zur Annahme oder Ablehnung von Anträgen mehr, die ausschließlich auf SafeRent-Scores basieren.
- Mietanträge von Nutzern von Wohnungsanträgen werden nun auf der Grundlage des gesamten Verlaufs des Antragstellers und nicht auf der Grundlage eines einzigen Scores bewertet.
Äußerungen von Interessengruppen
Shennan Kavanagh, die Direktorin des National Consumer Law Center, sagt, dass "Kredit-Scores und ähnlich modellierte Scores, wie die SafeRent-Scores, auf Informationen basieren, die nur getestet wurden, um die Rückzahlung von Kreditverpflichtungen vorherzusagen. Es gibt keinen Beweis dafür, dass solche Daten vorhersagbar sind, wenn es um die Mietzahlung von Mietern geht." Dieses Gefühl spiegelt die wachsende Besorgnis über die Abhängigkeit von KI-Algorithmen im Wohnungswesen und deren Auswirkungen auf faire Wohnpraktiken wider.
Verteilung der Vergleichsgelder
Die aus dem Vergleich gewonnenen Mittel werden an Mietantragsteller in Massachusetts verteilt, die aufgrund der Vorurteile im Mieterbewertungssystem von SafeRent mit Wohnproblemen konfrontiert waren. SafeRent erkannte an, dass langwierige Rechtsstreitigkeiten von seiner Kernmission, den Vermietern essentielle Mieterprüfungstools zur Verfügung zu stellen, ablenken würden, beharrte jedoch darauf, dass sein Bewertungssystem den Gesetzen entspricht.
Das größere Bild
Der SafeRent-Fall hebt einen größeren Trend hervor, bei dem algorithmusbasierte Immobilienmanagement-Tools aufgrund ihrer Auswirkungen auf die Gleichheit im Wohnungswesen unter die Lupe genommen und mit rechtlichen Herausforderungen konfrontiert werden. Im August ergriff das Justizministerium Maßnahmen gegen RealPage und behauptete, dass seine algorithmische Preissoftware zu überhöhten Mieten beigetragen habe.
Fazit
Während die Diskussion über Technologie und faires Wohnen weitergeht, dient der Vergleich von SafeRent als entscheidende Erinnerung an das Potenzial für systematische Vorurteile in KI-Systemen und die Notwendigkeit von Transparenz in den Mieterprüfungsprozessen. Diese rechtliche Entscheidung markiert einen bedeutenden Schritt zur Förderung einer faireren Wohnumgebung für alle, insbesondere für diejenigen, die Wohnungsanträge nutzen.
Hinterlasse einen Kommentar
Alle Kommentare werden vor der Veröffentlichung geprüft.
Diese Website ist durch hCaptcha geschützt und es gelten die allgemeinen Geschäftsbedingungen und Datenschutzbestimmungen von hCaptcha.