KI-Regeln: Über 40 Organisationen fordern Verbot von Predictive Policing

Zivilgesellschaftliche Akteure appellieren an die EU-Gremien, den Einsatz vorausschauender und profilbildender KI-Systeme in der Strafverfolgung zu untersagen.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen

(Bild: PHOTOCREO Michal Bednarek / shutterstock.com)

Lesezeit: 2 Min.

Systeme der Künstlichen Intelligenz (KI) werden zunehmend von europäischen Strafverfolgungs- und Justizbehörden eingesetzt, um Profile von Personen und Gebieten zu erstellen sowie vermeintlich künftiges kriminelles Verhalten oder das Auftreten von Straftaten in bestimmten Gebieten vorherzusagen. Über 40 zivilgesellschaftliche Organisationen verlangen nun in der EU einen Stopp dieser Praxis, da sie dadurch etwa die Unschuldsvermutung außer Kraft gesetzt sehen.

Solche Vorhersagen, Profile und Risikobewertungen durch Predictive Policing, die sich auf Individuen, Gruppen und Gebiete oder Orte beziehen, könnten polizeiliche und strafrechtliche Maßnahmen wie Überwachung, Anhalten und Durchsuchen, Bußgelder, Verhöre und andere Formen der polizeilichen Kontrolle sein, schreiben die Beteiligten in einem offenen Brief an den EU-Rat, das Europäische Parlament und die Mitgliedsstaaten. Sie könnten zur Festnahme, Inhaftierung und strafrechtlichen Verfolgung führen und würden auch beim Ansetzen des Strafmaßes und von Bewährungsauflagen herangezogen.

Einschlägige KI-Systeme reproduzierten und verstärkten Diskriminierung etwa aufgrund von ethnischer Herkunft, sozioökonomischem Status, Behinderung, Migrationshintergrund und Nationalität, warnen die Unterzeichner, zu denen die Strafverteidigerorganisation Fair Trials, die Initiative European Digital Rights (EDRi), Access Now, AlgorithmWatch, Human Rights Watch und Statewatch gehören. Solche Verfahren verletzten Grundrechte wie die auf ein faires Verfahren, auf Privat- und Familienleben sowie auf Datenschutz.

Die Daten von Polizei und Justiz, die für die Entwicklung, das Training und den Betrieb von KI-Systemen verwendet werden, spiegeln laut dem Schreiben oft "eine historische, systemische, institutionelle und gesellschaftliche Diskriminierung wider". Diese führe dazu, dass gewisse Minderheiten und geografische Räume in ganz Europa "übermäßig überwacht" würden. Solche Praktiken seien so tief verwurzelt, dass die umstrittene Technik diese Ergebnisse noch verstärke. Dies sei ein inakzeptables Risiko.

Das Bündnis fordert daher, ein Verbot von vorausschauenden und profilbildenden KI-Systemen in der Strafverfolgung und Strafjustiz in die geplanten KI-Regeln der EU aufzunehmen. Bei den laufenden Verhandlungen über die Verordnung müsse der gesellschaftliche Schaden, der von solchen Big-Data-Verfahren ausgehe, berücksichtigt werden. Negative Folgen für die Demokratie dürften nicht unter den Tisch fallen. Zuvor hatte etwa die schleswig-holsteinische Datenschutzbeauftragte Marit Hansen zu bedenken gegeben, dass mit KI-Methoden wie Gesichts- und Emotionserkennung sowie Predictive Policing Entscheidungen nicht mehr nachvollziehbar seien.

(fds)