Predictive Policing: Studien sehen weiterhin Rassismus

Wenn Behörden Algorithmen zur Strafverfolgung nutzen, dürfen diese keinen Bias haben. Doch dem ist noch immer nicht so, wie Forscher in den USA demonstrieren.

In Pocket speichern vorlesen Druckansicht 96 Kommentare lesen

(Bild: ev on Unsplash)

Lesezeit: 6 Min.
Von
  • Will Douglas Heaven
Inhaltsverzeichnis

Es ist seit längerem bekannt, dass von Vollzugsbehörden verwendete Vorhersage-Algorithmen, sogenanntes Predictive Policing, keinesfalls frei von Vorurteilen ist. Eine Vielzahl an Studien hatte gezeigt, dass rassistische Feedback-Schleifen auftreten können, wenn Algorithmen auf bestimmten Polizeidaten, beispielsweise zu Verhaftungen, basieren.

Neue Forschung zeigt nun, dass auch überarbeitete Trainingsmethoden für maschinelles Lernen, die diesen Bias eigentlich verringern sollte, nur wenig Wirkung zeigen. Das ergibt sich aus frisch erfassten Daten aus den Vereinigten Staaten, wo die Technik besonders häufig zum Einsatz kommt.

Die Nutzung von Verhaftungsdaten führt klassischerweise zu Vorurteilen in den Modellen: Schließlich ist bekannt, dass die Polizei in Stadtteilen, in denen viele schwarze Personen oder Angehörige anderer Minderheiten leben, vermehrt Festnahmen durchführt. Auf diese Weise empfiehlt ein Algorithmus eine strengere Überwachung in diesen Gegenden, was wiederum zu weiteren Verhaftungen führt. Im Ergebnis können polizeiliche Vorhersage-Tools Polizeibestreifungen falsch zuweisen: Einige Stadtteile sind zu Unrecht als kriminelle Brennpunkte ausgewiesen, während andere viel zu wenig kontrolliert werden.

Mittlerweile haben viele Entwickler von Predictive-Policing-Software die Problematik erkannt und beginnen damit, anstelle von Festnahmedaten mit Opferberichten (Victim Reports) zu arbeiten. Sie erhoffen sich darüber ein zutreffenderes Bild der Kriminalitätsraten in den unterschiedlichen Teilen einer Stadt. In der Theorie sollten Opferberichte weniger voreingenommen sein, da sie unabhängig von polizeilichen Vorurteilen und besagten Feedback-Schleifen entstehen.

Doch Nil-Jana Akpinar und Alexandra Chouldechova von der Carnegie Mellon University zeigen, dass ein solcher Ansatz ebenfalls eine Schieflage aufweist. Die beiden bauten ihren eigenen Vorhersage-Algorithmus und nutzen dafür dasselbe Modell, das in vielen häufig verwendeten Anwendungen verwendet wird (einschließlich PredPol, dem am weitesten verbreiteten System in den USA). Die KI-Software wurde mit Opferberichten aus Bogotá, Kolumbien, trainiert – eine der wenigen Städte, in denen es unabhängige Kriminalitätsberichte auf Stadtteilebene gibt.

Bei einem Abgleich zwischen den Vorhersagen der Technik und den tatsächlichen Verbrechensraten für jeden Stadtteil entdeckten die Forscher, dass bedeutende Differenzen bestanden. Beispielsweise wurden für einen Stadtteil, in dem wenig Kriminalität auftreten sollte, gerade einmal 20 Prozent der tatsächlichen Hotspots mit hoher Kriminalitätsrate vorhergesagt. Umgekehrt wurden in Stadtteilen mit vielen Strafanzeigen 20 Prozent mehr Brennpunkte vorhergesagt, als es sie tatsächlich gab. Für Rashida Richardson, Anwältin und Forscherin für algorithmischen Bias am AI Now Institute in New York, bestätigen diese Ergebnisse anhand bestehender Untersuchungen, die sich mit den Problemen von Datasets befassen, die für Predictive Policing genutzt werden. "Sie führen zu Ergebnissen mit Vorurteilen, die die öffentliche Sicherheit nicht verbessern", sagt sie. "Ich denke, dass Anbieter solcher Vorhersagetechnik wie PredPol grundsätzlich nicht begreifen, wie strukturelle und soziale Bedingungen die Kriminalitätsrate beeinflussen und verzerren können."

Warum also kriegt der Algorithmus es nicht hin? Das Problem mit Opferberichten ist, dass Menschen schwarzer Hautfarbe eine höhere Wahrscheinlichkeit haben, für eine Straftat angezeigt zu werden als weiße Personen. Ein wohlhabenderer weißer Mensch wird mit größerer Wahrscheinlichkeit eine ärmere schwarze Person anzeigen als umgekehrt. Und Schwarze zeigen auch häufiger andere Schwarze an, wie sich zeigte. In Verhaftungsdaten schlägt sich das so nieder, dass Stadtteile mit vielen Schwarzen Einwohnern häufiger als kriminelle Brennpunkte markiert werden, als das in der Realität der Fall sein sollte. Auch andere Faktoren verzerren das Bild.

"Ob Opfer anzeigen, hängt auch mit dem Vertrauen in die eigene Community zusammen oder mit fehlendem Vertrauen in die Polizei", sagt Richardson. Lebt jemand in einer Gemeinschaft, in der es in der Vergangenheit zu Korruption oder Bias bei der Polizei kam, wird das beeinflussen, "ob eine Straftat zur Anzeige kommt oder nicht". In solchen Gegenden mag Predictive Policing das Ausmaß der Kriminalität unterschätzen, sodass dort nicht die erforderliche Polizeipräsenz verfügbar ist.

Noch verheerender ist, dass es keinen offensichtlichen Weg gibt, die Technik zu korrigieren. Akpinar und Chouldechova haben versucht, das Bogotá-Modell so anzupassen, dass es vorhandene Vorurteile miteinbezieht, doch sie hatten nicht genug Daten zur Verfügung, um an dieser Stelle einen Unterschied zu bewirken – und das, obwohl es von Bogotá mehr Stadtteil-basierte Daten gibt als für jede Stadt in den USA. "Es ist unklar, ob es überhaupt einfacher ist, Vorurteile in diesem Fall abzumildern. Oder ob das am Ende nicht einfach den früheren Ansätzen entspricht, Systeme, die auf Festnahmedaten basieren, von ihrem Bias zu befreien", sagt Akpinar.

Was kann also getan werden? Richardson sieht die einzige Antwort darin, dass die Öffentlichkeit Druck ausüben muss, systemischen Rassismus zu verhindern. "Es ist nur eine Frage des politischen Willens", sagt sie. Sie merkt an, dass frühe Anwender polizeilicher Vorhersagetechnik, wie etwa im kalifornischen Santa Cruz, angekündigt haben, sie nicht mehr zu nutzen. Zudem gab es von offizieller Seite vernichtende Berichte über den Einsatz der Verfahren beim Los Angeles Police Department und dem Chicago PD. "Doch die Städte reagieren sehr unterschiedlich", sagt sie.

Chicago hat den Einsatz von Predictive Policing zwar eingestellt, stattdessen aber in eine Datenbank zur Verfolgung von Gangs investiert – diese hat laut Richardson aber viele derselben Probleme. "Es ist beunruhigend, dass Untersuchungen von Regierungsstellen zwar schwerwiegende Probleme mit dieser Technik feststellen, Politiker und Polizei dann aber trotzdem nicht entscheiden, dass sie nicht genutzt werden sollte", sagt sie.

(bsc)