Sicherheitsbehörden zuversichtlich: AI Act wird uns im Kernbereich nicht lähmen

Die Polizei wird sich bei KI-Anwendungen in der EU künftig wohl im Hochrisikobereich befinden. Doch Regulierung ist Ermittlern zufolge nicht per se schlecht.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Podium des Europäischen Polizeikongresses in Berlin.

Das Podium des Europäischen Polizeikongresses in Berlin war hochkarätig besetzt: QNTROL-Chef Sean Simon, Cyberbotschafterin Regine Grienberger, Zitis-Präsident Winfried Karl, Katharina Sook Hee Koch und Dirk Häger vom BSI, Unterabteilungsleiter Cyber/IT im Bundesverteidigungsministerium Armin Fleischmann und LKA-Präsident von Baden-Württemberg Andreas Stenger (v.l.).

(Bild: Stefan Krempl)

Lesezeit: 6 Min.

Die Mitte März vom EU-Parlament beschlossene Verordnung für Künstliche Intelligenz (KI) untersagt einige Anwendungen, die die Rechte der Bürger bedrohen wie die biometrische Kategorisierung auf Basis sensibler Merkmale und das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungskameras. Vorausschauende Polizeiarbeit ("Predictive Policing") wird eingeschränkt, doch Hintertüren etwa für automatisierte Gesichtserkennung durch Strafverfolger bleiben offen. Insgesamt strahlte Andreas Stenger, Präsident des Landeskriminalamts (LKA) Baden-Württemberg, so am Dienstag auf dem Europäischen Polizeikongress in Berlin eine "gewisse Zuversicht" aus, dass das Normenwerk "uns in unseren Kernbereichen nicht lähmen wird".

Künftig könne jeder mittelbegabte Kriminelle dank KI Malware einsetzen, abertausende Systeme penetrieren und bei geringem Entdeckungsrisiko hohe Gewinne einfahren, gab Stenger zu bedenken. Künstliche Intelligenz sei ein "Booster für Cyberattacken jedweder Art". So ließen sich damit etwa exorbitante geleakte Datenmengen gezielt nach Passwörtern, Kompromittierungsmöglichkeiten oder Schwachstellen durchsuchen. Zugleich gelte für die Ordnungshüter schon lange: "Wir müssen uns immer an die Regeln halten, die Übeltäter nicht." Trotzdem sei es nicht per se schlecht, dass mit dem AI Act nun zusätzliche Vorgaben für die Sicherheitsbehörden gälten: "Ich will Verhältnisse wie in China nicht."

Gewisse Felder wie Social Scoring oder die Ferndetektion von Emotionen seien mit der KI-Verordnung ein No-Go, führte der LKA-Chef aus. "Aber wir dürfen ja schon jetzt nicht mal ein Bildfahndungssystem bei Videoüberwachung einsetzen wegen dem nationalen Rahmen." Er erwarte daher trotz "alarmistischer Warnungen" keine großen weiteren Einschränkungen durch die EU-Vorgaben. Prinzipiell müsse die Polizei Algorithmen-basierte Systeme und Maschinenlernen verwenden, um selbst auch die ständig ansteigenden Datenmengen durchforsten zu können. So hätten sich beim LKA im Ländle allein die Verdachtsmeldungen für Kinder- und Jugendpornografie vom National Center for Missing & Exploited Children (NCMEC) aus den USA von 2000 auf über 7000 mehr als verdoppelt.

Insgesamt "warten wir ab, wie die 460 Seiten ausgestaltet werden", betonte Stenger. Eine gewisse Standardisierung werde sich damit schon ergeben. Die Regierungsfraktionen im Bund unterstrichen bereits, die mit dem AI Act verbliebene Option für einen strengeren Rahmen für automatisierte Fernidentifizierung nutzen zu wollen. Doch wenn die Fahnder zu stark eingeengt würden, "werden wir unsere Stimme erheben", kündigte der Kripo-Mann an.

"Wir werden über die Auslegung sprechen müssen", hob auch Winfried Karl, Präsident der Zentralen Stelle für Informationstechnik im Sicherheitsbereich (Zitis), hervor. Forschung und Entwicklung seien auf jeden Fall weiter möglich, müssten aber in diesen neuen Rechtsrahmen passen. Die Polizei bewege sich damit künftig mit ihren KI-Anwendungen voraussichtlich im Hochrisikobereich und müsse in diesem Falle bis Mitte 2026 die entsprechenden Auflagen erfüllen, also etwa ein Qualitätsmanagement dafür einführen, Modelle auf Robustheit testen und Transparenz in der Dokumentation an den Tag legen. Die Zitis, die laut Karl die "Cyberbefähigung" für Polizei und Geheimdienste gewährleisten soll, werde sich zur nationalen Implementierung gemeinsam mit den anderen Sicherheitsbehörden positionieren und Standards etwa auch für den Grundrechtsschutz erarbeiten.

Eine Algorithmen-Bewertungsstelle habe die Zitis schon eingerichtet, berichtete der nach mehr Ressourcen rufende Karl. Ein behördeninternes Kompetenznetzwerk zur KI-Regulierung solle folgen. Es gelte, die "Werkzeuge, die wir für Aufklärung brauchen", auf Basis internationaler Standards zu erstellen. Um solche meist datengetriebene Systeme zum Laufen zu bringen, brauche es "in der Regel Echtdaten von Sicherheitsbehörden". Aufsichtsbehörden sehen dies aber kritisch. So forderte der bayerische Datenschutzbeauftragte Thomas Petri jüngst den Stopp des Trainings einer umstrittenen Polizei-Software von Palantir mit echten Personendaten.

Sean Simon, Chef der auf das Erstellen von Lagebildern und Führungskommunikation spezialisierten Berliner Firma QNTROL, begrüßte die mit der KI-Verordnung nun bestehende Rechtssicherheit. Mit dem Gesetz gehe zwar auch ein gewisser Mehraufwand einher, der aber angesichts der von KI auch ausgehenden Gefahren akzeptabel sei. Bei QNTROL kämen aktuell alle einschlägigen Produkte auf den Tisch, um sie auf Rechtskonformität zu prüfen. Bei einem Lagemonitor für Social Media und Zeitungen müsse voraussichtlich die Gesichtserkennung abgeschaltet werden. Auch für Drohnen von Drittherstellern, die KI an Bord haben und so etwa "Menschen in Uniformen und Hauttypen erkennen" könnten, sei eine Lösung zu finden.

Wenn man in die Details der Verordnung schaue, blieben viele Ansätze aber weiter gut nutzbar, verdeutlichte Simon auch. Das 3D-Modellierungssystem Farsight etwa, über das sich in Echtzeit mit Drohnen und Überwachungskameras Positionen markieren und Strecken zwischen ihnen berechnen ließen, kollidiere nicht mit den neuen Regeln. Eine andere Geschichte sei es, wenn es mit Bodycams verknüpft werde und damit bestimmte Personen identifiziert werden könnten.

Bei der Regulierung sei Europa eine "Super-Power", konstatierte Cyberbotschafterin Regine Grienberger aus dem Auswärtigen Amt. Zusammen mit Dirk Häger vom Bundesamt für Sicherheit in der Informationstechnik (BSI) gab sie der Hoffnung Ausdruck, dass sich auch Drittländer mit dem AI Act befassten und sich so für Cyberkriminelle bislang sichere Häfen reduzierten. Es gebe aber auch weiter Nationen, die sich keiner Spielregel unterwerfen wollten. Insgesamt führe die sorgfältig ausgehandelte Verordnung dazu, "dass das Vertrauen in diese Technologie gestärkt wird". Armin Fleischmann, Unterabteilungsleiter Cyber/IT im Bundesverteidigungsministerium, zeigte sich trotzdem froh, dass es für "unseren Geschäftsbereich" eine breite Ausnahme in dem Gesetz gebe. Sonst hätte ein gravierender strategischer Nachteil gegenüber Staaten wie China und Russland bestanden. Die Bundeswehr müsse staatliche Angriffskampagnen erkennen und abwenden können, wobei KI hilfreich sei. Letztlich gehe es mithilfe der Technik auch darum, "mal den bösen Jungs" zu zeigen, "was 'ne Harke ist".

(olb)