KI berechnet Rückfälligkeitswahrscheinlichkeit von Straftätern

Algorithmen berechnen in den USA, wie wahrscheinlich ein Straftäter später eine neue Tat begeht. Aktivisten zufolge wurden die Programme aber falsch trainiert.

In Pocket speichern vorlesen Druckansicht 92 Kommentare lesen
KI berechnet Rückfall-Code

(Bild: "Modern Chain Gang" / Wikipedia / cc-by-2.0)

Lesezeit: 1 Min.
Von
  • Veronika Szentpetery-Kessler

In den USA verlassen sich Gerichte immer häufiger auf Risikoberechnungsalgorithmen, die die Rückfälligkeitswahrscheinlichkeit von Straftätern ermitteln. Der Wert geht anschließend in die Urteilsfindung der Richter ein. Allerdings können die Programme ganz falsche Vorhersagen treffen, warnten Technologen, Rechtsexperten und Community-Aktivisten auf der „Data for Black Lives“-Konferenz, die im Januar im MIT Media Lab in Cambridge stattfand. Das schreibt Technology Review online in "KI schickt Menschen fälschlich ins Gefängnis".

Der Grund dafür sei, dass die Algorithmen mit historischen Kriminalitätsdaten trainiert wurden, so die Aktivisten. Darin enthaltene Muster beruhen allerdings auf statistischen Korrelationen und nicht auf kausalen Zusammenhängen. Wenn ein Algorithmus beispielsweise feststellt, dass geringes Einkommen mit einer hohen kriminellen Rückfälligkeit korreliert ist, sagt das wenig darüber aus, ob tatsächlich zu wenig Geld die Ursache für die Straftat war. Die Risikobewertungsalgorithmen begehen allerdings genau diesen Fehler und setzen Korrelationen mit Kausalität gleich.

Dabei besteht die Gefahr, dass Bevölkerungsgruppen, die in der Vergangenheit unverhältnismäßig oft ins Fadenkreuz der Strafverfolgung gerieten – insbesondere in Gemeinschaften mit geringem Einkommen und Minderheiten –, hohe Rückfälligkeitswerte erhalten. Auf diese Weise verstärken und zementieren die Algorithmen bereits vorhandene Verzerrungen und erzeugen einen Teufelskreis.

Mehr dazu bei Technology Review online:

(vsz)