Maschinelles Lernen und Strafen: Wenn Rechner über Menschen richten

In den USA kommt Software zum Einsatz, um das Risiko der Rückfälligkeit Strafgefangener zu analysieren. Eine neue Untersuchung überprüfte die Wirksamkeit.

In Pocket speichern vorlesen Druckansicht 64 Kommentare lesen
Maschinelles Lernen: Wenn Rechner über Menschen richten

(Bild: LR-PHOTO/Shutterstock.com)

Lesezeit: 2 Min.

Algorithmen können unter bestimmten Umständen die Wahrscheinlichkeit, dass ein Verurteilter nach seiner Entlassung wieder straffällig wird, besser vorhersagen als Menschen. Das geht aus einer Studie hervor, die Wissenschaftler der Stanford University und der University of California in Berkeley durchgeführt haben, berichtet Technology Review in seiner Online-Ausgabe ("Algorithmen sollen erkennen, wer erneut straffällig wird").

Allerdings gelingt es weder Mensch noch Maschine besonders gut, das Rückfälligkeitsrisiko zu bestimmen. Das Team aus Stanford und Berkeley nahm sich einen Datensatz vor, der 7000 sogenannte COMPAS-Einschätzungen von echten Kriminellen enthielt. COMPAS ist ein System, dass Richtern in den Vereinigten Staaten aus vorhandenen Daten einen Ratschlag an die Hand geben soll – unumstritten ist es allerdings nicht.

Daraus entstanden individuelle Profile. Diese wurden dann wiederum 400 Laien präsentiert, die über die Plattform Amazon Mechanical Turk rekrutiert wurden. Ihre Aufgabe: Sie sollten entscheiden, ob sie dachten, dass die betroffene Person wieder eine Straftat begehen wird. Die Studie von 2018 fand heraus, dass COMPAS in 65 Prozent der Fälle richtig lag, die untrainierten Menschen jedoch in 67 Prozent der Fälle.

Die neue Studie kam zu ähnlichen Ergebnissen, doch wurde das Originalexperiment verändert und erweitert. Beispielsweise testete das Forscherteam, ob es hilfreich ist, mehr Informationen über die Verurteilten weiterzugeben, Feedback zu erteilen, wie richtig ein Entscheider in jeder Runde lag und ob die Konzentration auf Gewaltverbrechen etwas an der Genauigkeit änderte. Kritisch sehen die Forscher das Image, dass COMPAS und andere Computersysteme haben. Während Menschen vergleichsweise gut begründet gegen Entscheidungen von Richtern vorgehen können, ist es viel schwieriger, sich gegen scheinbar objektive Algorithmen zu wenden. Diese werden nicht nur in der US-Justiz zunehmend eingesetzt, sondern auch in anderen Bereichen der Verwaltungsarbeit, etwa bei der Zuteilung von Wohnungen oder im Schulsystem.

Mehr dazu bei Technology Review Online:

(bsc)