KI schickt Menschen fälschlich ins Gefängnis

US-Gerichte verlassen sich bei der Urteilsfindung immer stärker auf Algorithmen, die berechnen sollen, wie wahrscheinlich jemand später erneut straffällig wird. Doch die mit historischen Kriminalitätsdaten geschulten KI-Systeme kopieren die Fehler der Vergangenheit.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
KI schickt Menschen fälschlich ins Gefängnis

(Bild: "Modern Chain Gang" / Wikipedia / cc-by-2.0)

Lesezeit: 5 Min.
Von
  • Karen Hao
Inhaltsverzeichnis

Die Auswirkungen von Künstlicher Intelligenz (KI) auf persönliche Schicksale sind nicht immer offensichtlich, wenn man mit Maschinenlern-Algorithmen meist nur über den Newsfeed von Facebook oder die Suchranglisten von Google in Berührung kommt. Allerdings haben Technologen, Rechtsexperten und Community-Aktivisten auf der „Data for Black Lives“-Konferenz, die im Januar im MIT Media Lab in Cambridge stattfand, diese Fehleinschätzung bei einer Diskussionsrunde über das US-Strafrechtssystem wieder zurechtgerückt. Denn in den Vereinigten Staaten kann ein Algorithmus den Verlauf eines Lebens grundlegend verändern.

Mehr Infos

Die USA sperren mehr Menschen ein als jedes andere Land der Welt. Ende 2016 befanden sich fast 2,2 Millionen Erwachsene in Gefängnissen und weitere 4,5 Millionen in anderen Justizvollzugsanstalten. Anders ausgedrückt: Einer von 38 erwachsenen Amerikanern stand unter einer Form der Aufsichtskontrolle. Das Albtraumhafte dieser Situation ist eines der wenigen Probleme, die Politiker beider US-Parteien vereinen. Unter dem immensen Druck, die Zahl der Gefangenen zu reduzieren, ohne eine Zunahme der Straftaten zu riskieren, versuchen die Gerichtssäle mit automatisierten Werkzeugen zu berechnen, wie wahrscheinlich jemand rückfällig wird.

Polizeibehörden setzen bereits andere Algorithmen zur Risikoeinschätzung ein, um etwa vorherzusagen, wohin sie ihre Beamten auf Patrouille schicken sollen. Strafverfolgungsbehörden verwenden Gesichtserkennungssysteme, um Verdächtige zu identifizieren. Diese Praktiken sind derzeit mit gutem Grund auf dem Prüfstand, weil sie die Frage aufwerfen: Sorgen sie tatsächlich für mehr Sicherheit oder verstärken sie bestehende ungerechte Strukturen. Forscher und Bürgerrechtler haben beispielsweise wiederholt gezeigt, dass Gesichtserkennungssysteme insbesondere bei dunkelhäutigen Personen spektakulär versagen können und sogar Kongressabgeordnete mit verurteilten Kriminellen verwechseln können.

Das mit Abstand umstrittenste Instrument kommt jedoch erst nach einer Festnahme zum Einsatz: kriminelle Risikobewertung per Algorithmen. Diese haben eben nur eine Aufgabe, nämlich anhand verschiedener Details im Profil eines Angeklagten einen Rückfälligkeitswert zu berechnen. Diese Zahl soll die Wahrscheinlichkeit angeben, mit der jemand erneut eine Straftat begehen wird. Richter beziehen das Ergebnis anschließend in die vielen Entscheidungen mit ein, die sie etwa über die Art von Rehabilitationsleistungen treffen, ob sie vor einem Prozess in Untersuchungshaft bleiben sollen und welche Strafe sie erhalten. Eine niedrige Punktzahl ebnet den Weg für ein besseres Schicksal. Ein Höchstwert bewirkt das genaue Gegenteil.

Die Überlegung beim Einsatz solcher algorithmischen Werkzeuge ist folgende: Wenn kriminelles Verhalten vorhersagbar ist, lassen sich Ressourcen für eine Rehabilitation oder für Gefängnisstrafen besser einteilen. Theoretisch sollten sie auch die Gefahr von Voreingenommenheit im Prozess reduzieren, da Urteile dann auf der Grundlage datengetriebener Empfehlungen und nicht aufgrund eines Bauchgefühls fallen.

Das Problem dabei ist nur, dass moderne Risikobewertungsinstrumente häufig Algorithmen nutzen, die mit historischen Kriminalitätsdaten trainiert wurden. Darin enthaltene Muster beruhen allerdings auf statistischen Korrelationen und nicht auf kausalen Zusammenhängen. Wenn ein Algorithmus beispielsweise feststellt, dass geringes Einkommen mit einer hohen kriminellen Rückfälligkeit korreliert ist, sagt das wenig darüber aus, ob tatsächlich zu wenig Geld die Ursache für die Straftat war. Die Risikobewertungsalgorithmen begehen allerdings genau diesen Fehler und setzen Korrelationen mit Kausalität gleich.

Dabei besteht die Gefahr, dass Bevölkerungsgruppen, die in der Vergangenheit unverhältnismäßig oft ins Fadenkreuz der Strafverfolgung gerieten – insbesondere in Gemeinschaften mit geringem Einkommen und Minderheiten –, hohe Rückfälligkeitswerte erhalten. Auf diese Weise verstärken und zementieren die Algorithmen bereits vorhandene Verzerrungen und erzeugen einen Teufelskreis. Da die meisten Algorithmen zur Risikobewertung proprietär sind, ist es auch nicht möglich, ihre Entscheidungen zu hinterfragen oder sie zur Rechenschaft zu ziehen.

Die Debatte über diese Instrumente ist gerade voll im Gange. Im vergangenen Juli unterzeichneten mehr als 100 Bürgerrechts- und Gemeinde-Organisationen, darunter die Amerikanische Bürgerrechtsunion (ACLU) und die Nationale Organisation zur Förderung farbiger Menschen (NAACP) eine Erklärung, in der sie auf einen Verzicht auf solche Risikobewertungen drängten.

Gleichzeitig verlassen sich immer mehr Gerichtsbarkeiten und Bundesstaaten wie Kalifornien auf die KI-Werkzeuge in einem verzweifelten Versuch, ihrer überlasteten Gefängnisse Herr zu werden. Datenbasierte Risikobewertung ist ein Weg, um unterdrückerische Systeme reinzuwaschen und zu legitimieren, sagte Marbre Stahly-Butts, Geschäftsführerin von Law for Black Lives, auf der Bühne der Konferenz.

Dies sei eine Methode, um von den eigentlichen Problemen einkommensschwacher und Minderheitengemeinschaften abzulenken, zum Beispiel unterfinanzierte Schulen und einen oft unzureichenden Zugang zu medizinischer Versorgung. „Wir sind nicht Risiken“, sagt Stahly-Butts, „Wir sind Bedürfnisse."

(vsz)