Kreditwürdigkeit in den USA: Wie KI gegen Voreingenommenheit helfen könnte

Ohne den sogenannten Credit Score geht im amerikanischen Leben nichts. Minderheiten werden bei der Erfassung noch immer benachteiligt. Helfen neue Algorithmen?

In Pocket speichern vorlesen Druckansicht 33 Kommentare lesen

(Bild: Ms Tech / Cindy Tang / Unsplash)

Lesezeit: 6 Min.
Von
  • Will Douglas Heaven
Inhaltsverzeichnis

Es ist seit längerem bekannt, dass unausgewogene Daten samt unausgewogener Algorithmen die automatische Entscheidungsfindung auf eine Weise verzerren können, die einkommensschwache Gruppen und Minderheiten benachteiligt. Die Software, mit der Banken vorhersagen, ob jemand seine Kreditkartenschulden zurückzahlen wird oder nicht, bevorzugt beispielsweise wohlhabendere Antragsteller mit weißer Hautfarbe. Viele Forscher und eine Reihe von Start-ups versuchen, das Problem zu lösen, indem sie diese Algorithmen fairer machen.

In der bisher größten Studie mit realen US-Hypothekendaten zeigen die Ökonomen Laura Blattner von der Stanford University und Scott Nelson von der University of Chicago nun, dass die Unterschiede bei der Vergabe von Hauskrediten an Minderheiten- und Mehrheitsgruppen nicht nur auf algorithmische Voreingenommenheit zurückzuführen sind, sondern auch auf die Tatsache, dass Minderheiten und einkommensschwache Gruppen schlicht weniger Daten in ihrer Kredithistorie haben.

Das bedeutet: Wenn diese Daten zur Berechnung eines Credit Scores (Kreditscore) verwendet werden und dieser Wert zur Vorhersage von Kreditausfällen verwendet wird, ist diese Vorhersage weniger präzise. Es ist dieser Mangel an Präzision, der zu Ungleichheit führt – nicht die unausgewogenen Algorithmen. Die Implikationen sind eindeutig: Fairere KI-Routinen werden das Problem nicht beheben.

"Das ist ein wirklich beeindruckendes Ergebnis", sagt Ashesh Rambachan, der maschinelles Lernen und Wirtschaftswissenschaften an der Harvard University untersucht, aber nicht an der Studie beteiligt war. Voreingenommenheit und lückenhafte Kreditunterlagen sind schon seit einiger Zeit ein heißes Thema, aber dies ist das erste groß angelegte Vorhaben, das Kreditanträge von Millionen von echten Menschen untersucht.

Kreditscores erfassen eine Reihe von sozioökonomischen Daten, wie beispielsweise die Beschäftigungshistorie, Finanzdaten und Kaufgewohnheiten. All das fließt in eine einzige Zahl. Neben der Entscheidung über Kreditanträge werden Kreditscores in den USA mittlerweile für viele das Leben prägende Entscheidungen herangezogen, wie etwa Versicherungsbewilligungen, die Erteilung eines Mietvertrages und sogar Entscheidungen über Einstellungen neuer Mitarbeiter.

Um herauszufinden, warum Minderheiten von Hypothekenkreditgebern unterschiedlich behandelt werden, sammelten Blattner und Nelson Kreditberichte für 50 Millionen anonymisierte US-Verbraucher und verknüpften jeden dieser Verbraucher mit ihren sozioökonomischen Angaben aus einem ebenfalls vorhandenen Marketing-Datensatz, Grundbucheinträgen und Hypothekentransaktionen sowie Daten über die Banken, die ihnen Kredite gewährten.

Ein Grund dafür, dass dies die erste Studie dieser Art ist, liegt darin, dass diese Datensätze oft proprietär und für Forscher nicht öffentlich zugänglich sind. "Wir sind deshalb zu einer Kreditauskunftei gegangen und mussten ihnen im Grunde eine Menge Geld dafür bezahlen, die Daten zu erhalten", sagt Blattner. Anschließend experimentierten die Forscher mit verschiedenen Vorhersagealgorithmen, um zu zeigen, dass die Kreditscores nicht einfach nur verzerrt waren, sondern viel Rauschen enthielten, ein statistischer Begriff für Daten, die nicht für genaue Vorhersagen verwendet werden können.

Nehmen wir einen Antragsteller, der einer Minderheit angehört und einen Kreditscore von 620 hat. In einem unausgewogenen System, das einen Bias gegenüber diesem Personenkreis zeigt, könnte man erwarten, dass der Score das Kreditausfallrisiko dieses Antragstellers immer überschätzt und dass ein genauerer Score beispielsweise 625 wäre. Theoretisch könnte diese fehlerhafte Einschätzung dann durch eine Art algorithmischer positiver Voreingenommenheit ausgeglichen werden, so etwa durch eine Herabsetzung des Schwellenwerts für die Genehmigung von Anträgen von Minderheiten.

Blattner und Nelson zeigen jedoch, dass diese Anti-Bias-Maßnahme keinen Effekt hatte. Sie fanden heraus, dass ein Score von 620 für einen Antragsteller, der einer Minderheit angehört, in der Tat ein schlechter Näherungswert für seine Kreditwürdigkeit ist. Doch das liegt daran, dass der Fehler in beide Richtungen gehen kann: Eine 620 könnte eine 625 sein – oder es könnte eine 615 sein.

Dieser Unterschied mag subtil erscheinen, aber er ist wichtig. Da die Ungenauigkeit durch Rauschen in den Daten entsteht und nicht durch Verzerrungen in der Art und Weise, wie die Daten verwendet werden, kann die Ungerechtigkeit nicht durch bessere Algorithmen behoben werden. "Es ist ein sich selbst wiederholender Kreislauf", sagt Blattner. "Wir geben den falschen Leuten Kredite und ein Teil der Bevölkerung bekommt nie die Chance, die Daten aufzubauen, die nötig sind, um ihnen in Zukunft einen Kredit zu geben."

Blattner und Nelson versuchten anschließend zu messen, wie groß das Problem ist. Sie erstellten eine eigene Simulation des Prognosetools eines Kreditgebers und schätzten ab, was passiert wäre, wenn die Entscheidungen von Borderline-Bewerbern, die aufgrund ungenauer Scores angenommen oder abgelehnt wurden, rückgängig gemacht worden wären. Dazu verwendeten sie eine Reihe von Techniken, wie etwa den Vergleich abgelehnter Bewerber mit ähnlichen Bewerbern, die angenommen worden waren, oder die Betrachtung anderer Kreditlinien, die abgelehnte Bewerber erhalten hatten, wie z. B. Autokredite. Indem sie all dies zusammenfügten, fügten sie diese hypothetischen "korrekten" Kreditentscheidungen in ihre Simulation ein und maßen erneut den Unterschied zwischen den Gruppen.

Sie fanden heraus, dass die Unterschiede zwischen den Gruppen um 50 Prozent sanken, wenn man davon ausging, dass die Entscheidungen über Antragsteller, die einer Minderheit angehören oder ein geringes Einkommen haben, genauso genau waren wie die Entscheidungen für wohlhabendere Antragsteller mit weißem Background. Bei Antragstellern, die einer Minderheit angehören, kam fast die Hälfte dieses Gewinns an Genauigkeit durch die Beseitigung von Fehlern zustande, wegen denen der Antragsteller hätte bewilligt werden sollen, aber nicht bewilligt wurde. Bei Antragstellern mit niedrigem Einkommen war die Verbesserung geringer, weil diese durch die Beseitigung von Fehlern ausgeglichen wurde, die in die andere Richtung gingen: Antragsteller, die abgelehnt werden sollten, aber nicht abgelehnt wurden. Blattner weist darauf hin, dass die Beseitigung dieser Ungenauigkeit sowohl den Kreditgebern als auch den unterversorgten Antragstellern zugutekommen würde. "Der ökonomische Ansatz erlaubt es uns, die Kosten der Algorithmen mit verrauschten Daten auf sinnvolle Weise zu quantifizieren", sagt sie. "Wir können abschätzen, wie viel Kreditfehlallokation dadurch entsteht." (bsc)