Maschinenlernen für Richter

Eine Studie zeigt: Computer können besser als Menschen vorhersagen, ob Angeklagte zu ihrem Prozess erscheinen oder bis dahin weitere Verbrechen begehen werden. Auch rassistische Diskriminierung soll sich auf diese Weise verringern lassen.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 4 Min.
Von
  • Tom Simonite
Inhaltsverzeichnis

Wann sollte ein Beschuldigter im Gefängnis statt zuhause auf seinen Prozess warten? Software könnte Richter bei der Entscheidung darüber in Zukunft unterstützen – und so Verbrechen und unnötige Zeit im Gefängnis verhindern. Wie eine neue Studie des National Bureau of Economic Research (NBER) in den USA berichtet, haben Ökonomen und Informatiker einen Algorithmus auf Vorhersagen dazu trainiert, ob bei Beschuldigten mit einer Flucht zu rechnen ist; die Grundlage dafür bildeten Vorstrafenregister und Gerichtsakten aus mehr als 100.000 Fällen in New York City. Bei Tests mit weiteren 100.000 Fällen, von denen der Algorithmus keine nähere Kenntnis hatte, waren seine Vorhersagen besser als die von Richtern.

Mehr Infos

Jon Kleinberg ist Informatiker an der Cornell University und war zusammen mit Forschern der Universitäten Stanford, Harvard und Chicago an dem Projekt beteiligt. Nach seinen Worten war eines der Ziele dabei, der Politik zu demonstrieren, welche Vorteile der Einsatz von Maschinenlernen im Justizsystem für die Gesellschaft haben könnte. "Wir zeigen, wie Maschinenlernen sogar bei Problemen helfen kann, bei denen erhebliches menschliches Wissen eine Rolle spielt", sagt Kleinberg.

Nach einer Schätzung der Forscher könnte Beratung durch ihren Algorithmus Verbrechen durch Beschuldigte vor dem Prozess um 25 Prozent verringern, ohne dass dafür mehr Menschen im Gefängnis warten müssen. Alternativ könne sich die Zahl der Gefängnisinsassen, die auf ihren Prozess warten, um mehr als 40 Prozent verringern lassen, ohne dass dies zu mehr Verbrechen führen würde. Eine Wiederholung des Experiments mit Daten aus 40 großen städtischen Gemeinden in den USA brachte ähnliche Ergebnisse.

Und es gibt noch einen gesellschaftlichen Bonuseffekt: Die Vorteile lassen sich erreichen, während gleichzeitig der Anteil von Afroamerikanern und Latinos in den Gefängnissen abnimmt.

Der Algorithmus weist jedem Beschuldigten einen Risikowert zu. Die Grundlage dafür sind Informationen über den aktuellen Fall und das Vorstrafenregister, beispielsweise mit Daten über das vorgeworfene Vergehen, Zeitpunkt und Ort der Festnahme sowie Zahl und Art früherer Verurteilungen. Von den demografischen Daten wird nur das Alter berücksichtigt, nicht die Ethnie.

Kleinberg regt an, den Algorithmus als Hilfe für Richter einzusetzen. Diese sollen weitgehend entscheiden wie bislang, aber das System solle eine Warnung ausgeben, wenn es eine Entscheidung mit hoher Wahrscheinlichkeit für falsch hält. Analysen der Leistung von Richtern haben gezeigt, dass sie dazu neigen, gelegentlich Menschen freizulassen, die mit sehr hoher Wahrscheinlichkeit nicht zu ihrem Prozess erscheinen oder in der Zeit bis dahin ein Verbrechen begehen. Der Algorithmus würde viele dieser Fälle erkennen, sagt Kleinberg.

Richard Berk, Kriminalistikprofessor an der University of Pennsylvania, bezeichnet die Studie als "sehr gute Arbeit". Sie sei ein Beispiel für das zuletzt zunehmende Interesse am Einsatz von Maschinenlernen für bessere Entscheidungen im Justizsystem. Mit der Idee wird seit 20 Jahren geliebäugelt, doch inzwischen ist die Technologie deutlich leistungsfähiger geworden und es gibt mehr Daten, um sie zu trainieren.

Berk hat vor kurzem mit dem Pennsylvania State Parole Board ein System getestet, das einschätzt, mit welcher Wahrscheinlichkeit ein verurteilter Krimineller erneut Straftaten begeht; es soll zur Verringerung von Kriminalität beigetragen haben. Die neue Studie aber ist wichtig, weil sie sich damit beschäftigt, wie Maschinenlernen schon vor einem Prozess helfen kann, erklärt er. Dieser Bereich sei bislang noch nicht so gründlich erkundet worden.

Um sicherzustellen, dass Justiz-Algorithmen nicht zu unfairen Ergebnissen führen, ist laut Berk allerdings noch mehr Forschung nötig. Die Stiftung ProPublica hatte im vergangenen Jahr herausgefunden: Kommerzielle Software, die bei der Entscheidung darüber helfen soll, ob Verurteilte auf Bewährung freigelassen werden, kennzeichnete schwarze Personen mit höherer Wahrscheinlichkeit als "hohes Risiko" als weiße.

Laut Jens Ludwig, als Leiter des Crime Lab an der University of Chicago ebenfalls an der NBER-Studie beteiligt, zeigen die Ergebnisse, dass unfaire Bewertungen alles andere als unvermeidlich sind. Immerhin könne der Algorithmus ja theoretisch für weniger Verbrechen oder für weniger Schwarze und Latino im Gefängnis sorgen. "Mit solchen Werkzeugen lässt sich die Fairness gegenüber dem Status Quo sogar erhöhen", sagt er.

(sma)