KI im Polizeieinsatz: "Das ist so ein Wildwuchs"

Mit dem ChatGPT-Hype wollen auch Sicherheitsbehörden stärker von Künstlicher Intelligenz profitieren. Doch es gilt die Bürgerrechte und Transparenz zu wahren.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen

(Bild: Scharfsinn/Shutterstock.com)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Seit Anwendungsmöglichkeiten für Künstliche Intelligenz (KI) mit dem Erfolg des Bots ChatGPT und der dahinterstehenden Sprachmodelle besser allgemein verständlich geworden sind, wollen auch die Polizei und Geheimdienste vermehrt solche Techniken nutzen. Dies hat eine Umfrage der Strategieberatung Strategy& von PwC und dem "Behörden-Spiegel" unter rund 500 Mitarbeitern deutscher Sicherheitsbehörden im Vorfeld des Europäischen Polizeikongresses ergeben, der am Mittwoch in Berlin startete. Demnach befürworten 83 Prozent der Teilnehmer den Einsatz von KI in dem Sektor, über 80 Prozent erwarten davon sogar große Mehrwerte für die innere Sicherheit.

Ein echtes Interesse an KI habe sich im Sicherheitsbereich erst mit ChatGPT entwickelt, erklärte Robert Engels, Cheftechnologe der IT-Beratung Capgemini, zum Auftakt der Konferenz. Es sei das erste Mal in 30 Jahren, dass ein Computer "gut mit Menschen in mehreren Schritten kommunizieren" könne und "etwas Glaubwürdiges" zurückbringe. Das mache den Chatbot aber auch "unglaublich gefährlich", da er "wie ein Vierjähriger" nur vor sich hin brabbele. Für die Nutzung in Behörden gelte es daher zunächst, "Kontext in diese Modelle zu bringen".

Robert Engels, Cheftechnologe der IT-Beratung Capgemini

Die in solchen KI-Systemen verwendeten Algorithmen "haben Grundlagen, die oft gar nicht publiziert sind", warnte Engels. Er bekomme trotzdem viele Anfragen aus Sicherheitsbehörden: "Können wir das machen", mit diesem oder jenem Programm. "Das ist so ein Wildwuchs." Auch Capgemini habe einiges ausprobiert, etwa an einem Autocenter an der niederländischen Grenze mit der deutschen Polizei. Das Zentrum sei so groß gewesen wie ein kleines Dorf und habe viele Taschendiebe angelockt, berichtete der Niederländer. Daher habe man in Kooperation mit den deutschen Nachbarn ein System gebaut, "das über die Autobahn Nummernschilder erkennt" und "Mobiltelefone ausliest". Damit hätten sich einige "Muster für Kriminelle" entdecken lassen. Das Projekt sei aber wieder eingestellt worden, da die Eingriffe in die "individuelle Freiheit" der Betroffenen zu groß gewesen seien.

Auch die Zentrale Stelle für Informationstechnik im Sicherheitsbereich (Zitis) beschäftige sich im KI-Bereich stark mit Mustererkennung, ließ deren Präsident Wilfried Karl durchblicken. Wenn von einem Kfz-Kennzeichenscanner nur eine schlechte Aufnahme von der Seite komme, müssten Mitarbeiter das Material dank maschineller Hilfe nicht mehr stundenlang sichten. Die Behörde habe eine Algorithmen-Bewertungsstelle aufgebaut, um darzustellen, wie ein KI-System trainiert werde und technisch funktioniere. Für bestimmte strafrechtliche Phänomenbereiche gebe es aber teils nicht genug Trainingsdaten. Hier müsse eventuell wieder auf althergebrachte Expertensysteme zurückgegriffen werden.

"Das Vertrauen in KI schwindet", gab Dominik Lawatsch zu bedenken, der bei der IT-Sicherheitsfirma Secunet für die Geschäftsentwicklung in diesem Bereich zuständig ist. Gerade Sprachmodelle wie GPT ließen sich vielfach diskriminierend einsetzen und könnten automatisiert beleidigende Tweets sowie andere Postings rausbringen. Angesichts von "Prompt-Engineering", also Techniken zum Umgehen vorprogrammierter Sperren, funktionierten "Daten-Firewalls" hier nur begrenzt. Da wäre es nötig, eine "künstliche Schädeldecke" für die IT-Security eines "künstlichen Gehirns" einzuziehen und Rollenrechte der Nutzer zu begrenzen.

Andererseits existiere eine Vielzahl von Testalgorithmen, um ein bestimmtes Vertrauensniveau sicherzustellen, führte Lawatsch aus. Für KI-Cloud-Dienste habe das Bundesamt für Sicherheit in der Informationstechnik (BSI) frühzeitig mit AIC4 einen Kriterienkatalog herausgegeben. Secunet selbst habe eine "Anti-Bias-Lösung" entwickelt, um dem Einbezug von Vorurteilen und daraus folgenden Diskriminierungen schon in Trainingsdaten entgegenzuwirken: "Wir können über künstliche Identitäten nachweisen, dass die Modelle fair funktionieren." Vor allem bei bildverarbeitenden Systemen ließe sich eine Erklärbarkeit gewährleisten. Es sei möglich, Rückschlüsse auf Fehlerkombinationen zu ziehen. Bei Sprachmodellen komme es indes zu "Halluzinationen", da alles auf Wahrscheinlichkeit beruhe: "Da werden sie nie 100 Prozent Genauigkeit erreichen können."

Trotz seiner Schwächen sei es möglich, GPT-Anwendungen in einer weitgehend geschlossenen Umgebung bei der Polizei laufen zu lassen, um etwa alte Daten zu finden und deren Einsatz nachvollziehbar zu machen, meinte Matthias Szymansky, Manager für Informationsökonomie beim IT-Dienstleister Materna. Auch ein früher Entwurf für ein Lagebild könne das System erstellen, um Spezialisten die Ausgangsarbeit zu erleichtern. Es gebe viele "Massenverfahren" bei Polizei und Justiz sowie immer größere Datenmengen, sodass menschliche Experten nicht mehr ausreichten.

KI sei "echt schwierig", betonte eine Datenschützerin. Es müsse "jedes Risiko" bewerte und eine Folgenabschätzung geschrieben werden. Dafür bräuchte es ein "riesiges Team" mit Juristen, ITlern und Polizisten. Datenschutz sei von Anfang an mitzudenken, bestätigte Stefan Pohl vom Landeskriminalamt (LKA) Rheinland-Pfalz. In einem speziellen Transferlab mit dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und dem Bundeskriminalamt (BKA) sei es aber gelungen, durch Modularisierung für einzelne KI-Anwendungen etwa technische und organisatorische Schutzmaßnahmen festzuschreiben. Auch diese befreiten die Behörde aber nicht von einer Plausibilitätsprüfung.

Mit diesem Ansatz führe das LKA etwa eine Bild- und Videoauswertung nach bestimmten Inhalten wie Waffen oder Drogen durch, brachte Pohl ein Beispiel. Bei Serverdaten im Terabyte-Bereich, wie sie im Cyberbunker-Verfahren angefallen seien, ließen sich so rasch Wochen an Arbeit einsparen. Der ein oder andere Nutzer spreche von einer "Zauberwaffe". KI sei zugleich "ein großer Schritt in Richtung Standardisierung und Vergleichbarkeit". Das LKA gehe dabei von kleinen Datentöpfen aus und lasse die KI nicht über den gesamten Bestand laufen. Das größte Problem dabei sei das Trainieren der Algorithmen.

Die Hürden für KI bei Sicherheitsbehörden seien "groß und zahlreich", fasste Philipp Mette, Direktor von Strategy&, die Ergebnis der Umfrage bei Praktikern zusammen. Dazu zählten juristische Einschränkungen wie hemmende Datenschutzgesetze, auch der Fachkräftemangel schlage voll durch. Ethische Bedenken rangierten nach finanziellen Problemen erst an vierter Stelle. 70 Prozent der Befragten erwarteten einen "effektiven Einsatz" von KI in ihrer Organisation so erst frühestens in zwei bis fünf Jahren, 40 Prozent frühestens in fünf Jahren. Aktuell beschränke sich der Einsatz auf die Automatisierung, während komplexe Analysen und Vorhersagen etwa von Mengenbildungen bei Fußballfans meist noch nicht zum Alltag gehörten. Die Zufriedenheit mit bereits praktizierten Lösungen sei aber sehr groß.

(bme)