Datenanalyse und Strafverfolgung: Fairere Verfahren oder riskante Versuchung?​

Beim Polizeisymposium der Bundesdatenschutzbeauftragten erklärten Beteiligte Wünsche und Grenzen automatisierter Datenanalyse und Künstlicher Intelligenz.​

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
Künstliche Intelligenz: Überall in Europa entscheiden schon Algorithmen

(Bild: whiteMocca/Shutterstock.com)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Wenn im Schnelldurchgang KI-Gesetze durch das Parlament gebracht würden, die in zwei Jahren vom Bundesverfassungsgericht einkassiert werden müssten, sei das "nicht hilfreich", sagt Louisa Specht-Riemenschneider. Die neue Bundesdatenschutzbeauftragte lud zur Diskussion über die Rolle von KI und Datenanalyse in der Polizeiarbeit. Es dürfe keinen Zweifel geben, dass dabei rechtliche Vorgaben eingehalten würden. Es brauche ein planvolles, gesetzgeberisches Handeln eines besonnenen und gründlichen Gesetzgebers – ein wenig dezenter Hinweis der unabhängigen Beauftragten an die Verantwortlichen im Bundestag und in der Bundesregierung.

Der ehemalige Richter am Bundesgerichtshof, Christoph Krehl, beschrieb die Problematik aus Gerichtssicht. Einsatzmöglichkeiten für KI und algorithmische Systeme seien in Deutschland verfassungs- und europarechtlich zurecht stark eingeschränkt. Richter müssten entscheiden, verstehen und erklären können, wie Systeme funktionieren. Für Assistenzaufgaben zur Unterstützung sei ein Einsatz unter bestimmten Bedingungen zulässig, wenn KI-Systeme erklärbar seien, so Krehl.

Allein mit mehr Ressourcen wie Polizeibeamten oder Staatsanwälten seien Digitalisierungsphänomene nicht zu bewältigen, schilderte Markus Hartmann, leitender Oberstaatsanwalt der Zentral- und Ansprechstelle Cybercrime Nordrhein-Westfalen. Die ZAC NRW ist auch für datenintensive Verfahren bei Missbrauchsdarstellungen im Netz zuständig. Der Endgegner der Staatsanwaltschaft sei nicht die Komplexität des Einzelfalls, so Hartmann. Masse und Anknüpfungspunkte seien das Problem. Durch bessere Auswertung ergäben sich neue Spuren zu weiteren Fällen. "Wir ersticken gerade an unserem eigenen Erfolg", sagte Hartmann. Gerade in der Beweismittelbetrachtung seien Automatisierung und KI nötig. Aber auch bei stark standardisierten Verfahren wie Ladendiebstahlsanzeigen könne KI zumindest unterstützen. Er sei dafür, die Entwicklungen dann als Open-Source-Modelle zur Verfügung zu stellen, um die Überprüfbarkeit sicherzustellen, so Hartmann.

Für die bekannte Anwältin Gül Pinar spricht ebenfalls viel für den Einsatz automatisierter Methoden. Verfahren würden extrem lange dauern und Kriminalpolizeien in laufenden Prozessen oft Beweismittel nachliefern. Die Untersuchungshaft würde dadurch oft unnötig lang. Zugleich müsse klar sein, dass dafür strikte Regeln gelten müssten: "Es muss für jeden Beschuldigten möglich sein nachzuvollziehen, was ist da eigentlich gemacht worden?" Sie schlug etwa ein Akteneinsichtsrecht in Software und Suchparameter vor.

Wie groß das Delta zwischen Wunsch und Wirklichkeit in Polizeibehörden ist, legte Alexander Poitz als stellvertretender Bundesvorsitzender der Gewerkschaft der Polizei (GdP) dar. Es gebe einen indirekten Täterschutz durch fehlende digitale Möglichkeiten, was mit fehlenden Dienstmobiltelefonen beginne. Die Polizei solle Messenger überwachen und Onlinedurchsuchungen vornehmen können. Der Gegner agiere inzwischen ohne direkte Täterbeziehungen nur als Dienstleister in der Schattenwelt der Underground Economy. Er habe auch keine Angst davor, wenn etwa gegen eine Neuauflage der Vorratsdatenspeicherung geklagt würde – mit IPv6 etwa würden so viele Adressen zur Verfügung stehen, dass man über ein System vergleichbar amtlichen Kennzeichen nachdenken müsse.

Der für das BKA-Gesetz zuständige Unterabteilungsleiter für Rechts- und Grundsatzangelegenheiten in der Abteilung Öffentliche Sicherheit beim Bundesministerium des Innern Tobias Wiemann schilderte, warum mehr Befugnisse geplant seien. Bei der Gefahrenabwehr, etwa bei Terrorismusverdacht, gebe es enormen Zeitdruck. Wird ein Verdächtiger festgenommen, gehe es um Stunden, etwa bei sichergestellten Smartphones: "Bis heute werden die Daten nicht automatisiert abgeglichen, sondern händisch übertragen und einzeln abgefragt." Das seien oft mehrere hundert Kontakte. Relevante müssten von irrelevanten Daten schnell nach polizeilichen Erfahrungswerten unterschieden werden. Das Verfassungsgericht habe automatisierte Analysen ausdrücklich als legitim erachtet. Mit den nun geplanten Änderungen des BKA-Gesetz-Paragrafs 16a würden drei Bereiche adressiert: internationaler Terrorismus, die Sicherungsgruppe des BKAs und die Zentralstellenfunktion, wo das BKA für die anderen Polizeibehörden als Dienstleister agieren würde – in engen Grenzen.

Beim geplanten nachträglichen biometrischen Abgleich mit öffentlich zugänglichen Daten aus dem Internet geht es um zwei Datenarten: Stimmanalysen und Bilddaten. Was aber sind öffentlich zugängliche Daten? "Alles im Internet, bis hin zum Darknet, ohne dass Sie sich in geschlossenen Benutzergruppen anmelden", erläuterte Wiemann. Anlass der Neuregelung ist der Fall einer lang untergetauchten RAF-Terroristin. Journalisten machten sie mithilfe von Bildersuchmaschinen im Internet bereits vor Strafverfolgern ausfindig. Datenschutzaufsichtsbehörden betrachten diese Suchmaschinen, die ohne Zustimmung die Bilddaten verarbeitet haben, als auf illegal erhobenen Datenbeständen aufbauend.

Die Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider forderte von allen Beteiligten, früh zu definieren, welche Leitplanken für automatisierte Verfahren in der Polizeiarbeit zwingend nötig wären. Und mahnte: "Der digitale öffentliche Raum ist nicht nur der Raum, in dem wir selbst Daten zugänglich machen, sondern auch derjenige, den auch andere zugänglich machen." Eine Differenzierung sei hier nicht möglich.

(mki)