Polizeikongress: KI als letzte Chance zum Durchsetzen des Gewaltmonopols

Würden Nutzer alle Kriminalität im Netz zur Anzeige bringen, wären Polizei und Staatsanwaltschaft heillos überfordert. Nur KI kann laut einem Experten helfen.

vorlesen Druckansicht 29 Kommentare lesen
Drei Männer auf einem Podium

Sicherheitsexperten diskutieren auf dem Europäischen Polizeikongress.

(Bild: Stefan KRempl/heise online)

Lesezeit: 6 Min.
Inhaltsverzeichnis
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Thomas-Gabriel Rüdiger, Cyberkriminologe an der Hochschule der Polizei Brandenburg, sieht in Künstlicher Intelligenz (KI) die "letzte Chance", das Gewaltmonopol des Staates überhaupt noch durchzusetzen. Digitale Kriminalität im Netz sei "absolute Normalität", erläuterte der Institutsleiter am Dienstag auf dem Europäischen Polizeikongress in Berlin. Jeder Dritte erhalte hierzulande täglich strafbare Spam- und Phishing-Mails. Insgesamt gebe es allein in diesem Bereich pro Tag dreimal mehr Fälle, als sie die gesamte jährliche Kriminalstatistik enthalte.

Schon Minderjährige berichteten über Beleidigungen, Verschwörungstheorien, Hassbotschaften, ungewollte Pornos und sogar sexuelle Missbrauchsdarstellungen, die sie immer wieder erhielten, führte Rüdiger aus. Wenn Betroffene dies alles mal zur Anzeige brächten, was im Moment kaum geschehe, könnten die Sicherheitsbehörden damit gar nicht umgehen. Ein Großteil der Online-Straftaten sei zudem Auslandstaten, die derzeit generell nur zu 2 Prozent aufgeklärt würden. Ohne KI sei es für die Polizei daher so gut wie nicht mehr möglich, dagegen noch etwas zu machen.

In Deutschland fehlten aktuell aber die nötigen Anzeige- und Interaktionsmöglichkeiten mit Strafverfolgern, gab der Professor weiter zu bedenken. Es gebe zwar insgesamt 16 Internetwachen, aber die seien nichts anderes als Briefkästen. Im Gegensatz zu einem Polizeirevier vor Ort sei es etwa online so gut wie nicht möglich, ein Tatbestandsmerkmal herauszuarbeiten. Ein einziger übergreifender Kontaktpunkt existiere zudem nicht. So würde eine originäre Aufgabe der Polizei zunehmend ausgelagert an Betreiber von Plattformen, Online-Beschwerdestellen und die Zivilgesellschaft.

Für Rüdiger steht aber fest: Eine treffsichere Anzeige übers Internet aufzugeben, "muss ganz einfach machbar sein". In diesem Falle würden die Anzeigeraten massiv steigen, denkt er weiter. Um die zu bearbeiten, hätten die Strafverfolgungsbehörden wiederum nicht das erforderliche Personal. Über KI sei es aber perspektivisch möglich, die Aufnahmen entsprechender Mengen von Anzeigen hinzubekommen, wenn das rechtlich abgesichert sei. ChatGPT etwa könnte in diesem Sinne schon im Voice-Modus agieren. Generell habe KI die Fähigkeit, 40 bis 50 Prozent der polizeilichen Arbeit zu automatisieren. Sie könnte etwa Ermittlungsakten und Vernehmungsprotokolle schreiben.

Videos by heise

Das Folgeproblem für die Staatsanwaltschaft wäre es dann, die Masse an Eingaben zu bearbeiten, weiß der Jurist. Tendenziell müsste also auch diese auf KI setzen, im nächsten Gang die Gerichte. Es bleibe nichts anderes übrig, als die Technik "für digitale Massenkriminalität" anzuwenden. Zugleich mahnt der Professor aber auch: "Wir müssen massiv in digitale Bildung investieren." Sonst gäbe es "soziale Verwerfungen".

"Wir wollen mehr Unterstützung durch KI", griff Stephan Weh, Bezirksvorsitzender der Gewerkschaft der Polizei (GdP) Berlin, den Faden auf. Diese biete sich etwa an für die Analyse großer Datenmengen, die biometrische Gesichtserkennung, Überwachung oder die Vorhersage von Kriminalitätsmustern. Allein mit dem Objektschutz seien momentan viele Kollegen gebunden, obwohl Videokameras hier eine größere Rolle spielen könnten. Derzeit erarbeite die Senatsverwaltung mit Arbeitnehmervertretern aber erst eine Rahmenvereinbarung für den KI-Einsatz durch die Ermittler in der Hauptstadt.

900.000 Anzeigen erhalte die Polizei Berlin derzeit pro Jahr, berichtete Weh. 200.000 davon gingen über die Internetwache ein. Viele dieser Hinweise würden zu "Massendelikten" zusammengefasst, bei denen die Kollegen aber trotzdem gegebenenfalls aufwendig Durchsuchungen durchführen und Beweismittel analysieren müssten. Hier könnte die KI teils übernehmen, um menschliche Mitarbeiter besser dort einzusetzen, wo es bereits einen Täteransatz und Spuren gebe. Das Bundeskriminalamt habe die App Insitu gebaut, brachte Patrick Pongratz vom Datenbankspezialisten Couchbase dafür ein Beispiel. Damit ließen sich Spuren schon am Tatort digital aufnehmen.

"Aktuell treibt uns die Internetkriminalität vor uns her", räumte Weh ein. KI wiederum sei immer nur so gut wie der Mensch, "der sie mit Daten füttert". Da diese bei der Polizei oft hochsensibel seien, müsse der Datenschutz direkt mit eingebettet werden. Am Ende habe der Mensch zu entscheiden, KI könne ihn nur unterstützen.

"KI könnte selbstständig Straftaten begehen", warnte Rüdiger zugleich vor Gefahren der Technik. Bereits legendär sei etwa die Geschichte eines Twitter-Bots von Microsoft, der schon am ersten Tag den Holocaust geleugnet habe. Das Legalitätsprinzip greife hier aber gar nicht, da eine KI keine eigene Rechtspersönlichkeit und keinen eigenen Willen habe. Die Polizei müsste und könnte solche Taten also gar nicht direkt verfolgen, monierte der Experte. Sollten humanoide Roboter mit KI ausgestattet werden, könnten sie Körperverletzungen oder sogar Verbrechen begehen. Bisher gäben die Gesetze darauf wohl noch nicht die richtigen Antworten.

"Das Strafrecht ist noch anthropozentrisch", bestätigte der Oldenburger Rechtswissenschaftler Alexis von Kruedener. Das derzeitige Recht versuche daher, die Verantwortung bei menschlichen Akteuren wie Herstellern, Programmierern, Betreibern, Aufsichtspersonen beziehungsweise "Haltern" zu verorten. Der AI Act sehe zudem tendenziell eine Grundrechtsfolgenabschätzung vor allem bei Hochrisiko-Systemen vor und verbiete bestimmte Anwendungen wie die biometrische Fernidentifizierung in Echtzeit. "Auch in der Polizeiarbeit führt an KI kein Weg mehr vorbei", betonte Stephan Hempel von Schwarz Digits Defense.

Die große Frage sei dabei nur, wie sich die Dreifaltigkeit von Datenschutz, Informationssicherheit und digitaler Souveränität dabei sicherstellen lasse. Mit Möglichkeiten wie der Bildmanipulation und realitätsnahen Alterung gesuchter Personen in "Coldcases" oder dem Erstellen von Legenden durch synthetische Identitäten für verdeckte Ermittler umwarb Florian Domin von Secunet die anwesenden Ordnungshüter. Wenn die Gegenseite Deepfakes nutze, helfe die Technik auch, diese besser zu identifizieren.

(mho)