San Francisco: KI-Tool soll Voreingenommenheit bei Anklagen ausschließen

Künstliche Intelligenz entfernt in Polizeiberichten automatisch einige Angaben zum Täter. Dadurch sollen mögliche Vorurteile bei den Anklägern umgangen werden.

In Pocket speichern vorlesen Druckansicht 52 Kommentare lesen
San Francisco: KI-Tool soll Voreingenommenheit bei Anklagen verhindern

San Francisco

(Bild: Daniel AJ Sokolov)

Lesezeit: 3 Min.

In San Francisco soll künftig eine KI-Software Polizeiberichte durchforsten und alle Hinweise auf die ethnische Zugehörigkeit eines Beschuldigten entfernen, die die Voreingenommenheit eines Vertreters der Anklage gegenüber einer bestimmten Bevölkerungsgruppe womöglich bestätigen könnten. Das "bias mitigation tool" (deutsch etwa: Werkzeug zur Verringerung von Voreingenommenheit) soll zum 1. Juli startbereit sein. Es sei der landesweit erste Einsatz eines solchen Tools, teilte der Bezirksstaatsanwalt von San Francisco George Gascón mit.

Die Software nutze KI-Technik und redigiere Polizeiberichte unter dem Gesichtspunkt, sämtliche Hinweise auf die ethnische Zugehörigkeit des Verdächtigen zu löschen. Damit soll erreicht werden, dass etwaige Vorurteile beim Ankläger nicht in die Entscheidung über eine erste Klageerhebung einfließen können. Dazu gehören nicht nur direkte Angaben zur ethnischen Herkunft, sondern auch indirekte Merkmale wie Augen- und Haarfarbe, die Namen von Beteiligten oder die Bezeichnungen von Orten und Wohngegenden. Denn auch darüber könne ein Ankläger – willentlich und unbewusst – den Verdächtigen einer bestimmten Ethnie zuordnen, heißt es in der Mitteilung.

Die redigierten Polizeiberichte würden lediglich für die erste Klageentscheidung nach der Verhaftung genutzt, für die endgültige Entscheidung werde der unveränderte Bericht sowie gegebenenfalls Videomaterial herangezogen. Gascón verwies darauf, dass man noch nicht sagen könne, wie gut die Software in der Praxis funktionieren werde. Etwaige Unterschiede zwischen der ersten und der endgültigen Entscheidung über eine Anklage werde man genau untersuchen und damit die Software möglichst verbessern sowie die implizite Voreingenommenheit der Beteiligten reduzieren.

Mehr Infos

Die Stadt San Francisco stellt sich selbst hohe Hürden für den Einsatz von Überwachungstechnik auf. Gesichtserkennung ist besonders tabu.

Gascón sagte, wenn man sich die Inhaftierungen in diesem Land anschaue, sei klar, dass es überdurchschnittlich oft nicht-weiße Menschen ("men and women of color") treffe. Beispielsweise könne schon der Name Hernandez einen Verdächtigen als Latino erscheinen lassen und damit womöglich eine Entscheidung über eine Anklageerhebung verzerren. Das KI-Tool soll außerdem den Namen und die Dienstnummer des Polizeibeamten entfernen und dadurch auch die Fälle abdecken, in denen der Polizist dem Ankläger bekannt ist und dieser dessen Berichte gewohnheitsmäßig positiv oder negativ beurteile, schreibt The Verge.

Entstanden ist die Software am Stanford Computational Policy Lab (Stanford University). Sie soll mehrere Algorithmen zur Worterkennung verwenden und ersetzt eine spezifische Bezeichnung durch einen allgemeinen Platzhalter wie "Location" oder "Officer #1". Die Software ist für San Francisco kostenlos entwickelt worden und soll in einigen Wochen als Open-Source-Software freigegeben werden, damit sie auch anderen Behörden zur Verfügung steht. (tiw)