zurück zum Artikel

EU-KI-Regeln: Echtzeit-Gesichtserkennung soll weitgehend verboten werden

Stefan Krempl
Schild

Symbolbild

(Bild: Daniel AJ Sokolov)

Die EU-Kommission will manipulative KI-Systeme und Social Scoring untersagen. Auch die biometrische Echtzeit-Fernidentifikation ist verpönt – mit Ausnahmen.

Das "globale Zentrum für vertrauenswürdige Künstliche Intelligenz" (KI) soll die Europäische Union werden. Ein Verordnungsentwurf der EU-Kommission sieht ein abgestuftes Pyramidenkonzept für algorithmische Entscheidungssysteme mit Verhaltensregeln, Mindeststandards und Verboten vor. Dabei gilt: je höher die Gefahren, desto strenger die Regeln.

Besonders umstritten war im Vorfeld der Ansatz rund um biometrische Massenüberwachung im öffentlichen Raum. Ein vorige Woche durchgesickerter Entwurf sah zwar ein prinzipielles Verbot, aber auch breite Ausnahmen für den Einsatz der Technik durch Sicherheitsbehörden [1] vor. Dies führte zu Protesten von EU-Abgeordneten und Wissenschaftlern [2]. Auch tausende Unterzeichner der Petition "Reclaim Your Face" [3] verlangen ein generelles Veto.

In dem am Mittwoch präsentierten Verordnungsentwurf [4] differenziert die Kommission stärker. Sie schlägt einen grundsätzlichen Bann "biometrischer Echtzeit-Fernidentifizierung im öffentlichen Raum" vor. Ein solcher bezöge sich etwa auf Videoüberwachung mit automatisierter Gesichtserkennung, wie ihn die Bundespolizei am Berliner Bahnhof Südkreuz getestet [5] hat.

Diese Technik "stellt ein besonderes Risiko für die Wahrung der Grundrechte dar, insbesondere hinsichtlich der Würde des Menschen, der Achtung des Privat- und Familienlebens, des Schutzes personenbezogener Daten und der Nichtdiskriminierung", unterstreicht die Kommission. Biometrische Echtzeit-Identifizierung könne ein Gefühl der "ständigen Überwachung" hervorrufen und Bürger etwa davon abbringen, ihr Recht auf Versammlungsfreiheit auszuüben. Trotzdem sieht die Behörde Ausnahmen für die Strafverfolgung vor, die "eng abgesteckt", begrenzt und strikt definiert seien.

Als Beispiele nennt die Kommission die gezielte Suche nach bestimmten potenziellen Verbrechensopfern oder vermissten Kindern, die Prävention eines unmittelbar drohenden Terroranschlags oder das Erkennen und Identifizieren von Personen, die "schwere Straftaten" begangen haben. Der entsprechende Deliktekatalog soll an den Europäischen Haftbefehl geknüpft werden, der 32 Straftaten inklusive Computerkriminalität und Rassismus umfasst – allerdings nur bei Verbrechen, auf die im jeweiligen Mitgliedsstaat eine maximale Haftstrafe von mindestens drei Jahren steht.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung [6].

"Es gibt keinen Platz für Massenüberwachung in unserer Gesellschaft", betonte die für Digitales zuständige Vizepräsidentin der Kommission, Margrethe Vestager. Sollte ein EU-Land von den Ausnahmen Gebrauch machen wollen, müsse es zunächst eine entsprechende gesetzliche Grundlage schaffen und im Anschluss die Anwendung von einer geeigneten Justizbehörde überwachen lassen. Zudem seien die Vorgaben aus der Datenschutz-Grundverordnung (DSGVO [7]) zu beachten. Darin gelten biometrische Körpermerkmale als besonders sensible Informationen.

Das Verbot soll nicht greifen bei nachträglicher Fahndung mit Systemen zur Gesichts- oder Gangerkennung, wie sie die Hamburger Polizei etwa auf der Suche nach Randalierern nach dem G20-Gipfel in der Hansestadt durchgeführt [8] hat. An alle Systeme zur Erkennung von Emotionen und zur biometrischen Kategorisierung werden mit dem Entwurf aber besondere Transparenzanforderungen gestellt. Sie werden als Anwendungen mit hohem Risiko eingestuft, wenn sie in Bereichen wie Beschäftigung, Bildung und Erziehung, Strafverfolgung, Migration sowie Grenzkontrolle verwendet werden.

Als Hochrisiko-Systeme schätzt die Kommission generell KI-Anwendungen in den genannten Sektoren ein, also etwa Programme zur Auswahl von Bewerbern für Arbeits- und Hochschulplätze. Dazu kommen Einsätze bei kritischen Infrastrukturen etwa im Verkehr mit autonomen Fahrzeugen, bei denen das Leben und die Gesundheit der Bürger gefährdet werden könnten, Sicherheitskomponenten von Produkten wie die roboterassistierte Chirurgie sowie die Rechtspflege und demokratische Prozesse. Auch wichtige private und öffentliche Dienstleistungen wie das Scoring zur Bonitätsprüfung durch die Schufa fallen in diese Kategorie.

Für Anwendungen in dieser Stufe sollen strenge Auflagen kommen: KI-Entwickler müssen dem Vorhaben nach ihre Systeme mit hochwertigen Daten füttern, damit die Ergebnisse nicht diskriminierend sind. Nötig sind angemessene Systeme zur Einschätzung und Minderung von Risiken, deren Konformität die Behörden und ein neuer europäischer KI-Ausschuss bewerten sollen. Angemessene menschliche Aufsicht und Kontrolle bei Entwicklung und Anwendung werden genauso vorgeschrieben wie ein hohes Maß an IT-Sicherheit, Robustheit und Genauigkeit. Vorgänge müssten protokolliert werden, um Ergebnisse nachvollziehbar zu machen. Ausführliche Dokumentationen und klare Informationen für die Nutzer sollen KI transparent machen.

In die höchste Kategorie, die ein unannehmbares Risiko darstellt und wo Anwendungen untersagt werden, fallen neben Systemen zur Echtzeit-Fernidentifikation auch solche, "die menschliches Verhalten manipulieren, um den freien Willen der Nutzer zu umgehen". Umfasst sein soll etwa Spielzeug mit Sprachassistenten, das Minderjährige zu gefährlichem Verhalten ermuntert. Ein Verbot sieht die Kommission ferner vor für Social Scoring. Mit einem Konzept und regionalen Experimenten für ein Sozialkreditsystem inklusive einer Bürgerbewertung in Form eines "Citizen Score" sorgt vor allem China für meist negative Schlagzeilen [9], die sich Europa ersparen will.

Für Systeme mit geringem Risiko wie Chatbots, die Kaufempfehlungen abgegeben, sollen Transparenzvorgaben gelten: Dem Nutzer muss klar sein, dass er mit einer Maschine kommuniziert. Die breite Masse von KI-Anwendungen wie KI-gestützte Videospiele oder Spamfilter stuft die Kommission in die Kategorie mit minimalem Risiko ein. Sie sollen frei und uneingeschränkt anwendbar sein. Die Exekutivinstanz empfiehlt hier aber freiwillige Verhaltenskodizes. Sie bringt zudem "regulatorische Sandkästen" ins Spiel, um "verantwortungsvolle Innovationen zu erleichtern".

Dazu kommt ein überarbeiteter Rahmenplan [10], der die Finanzierung von KI-Systemen in Europa etwa mit Fördermitteln für öffentlich-privaten Partnerschaften und Forschungs- und Innovationsnetzen [11] voranbringen soll. Mit dem Programm Digitales Europa steht eine Milliarde Euro bereit, auch die Forschungsrahmenagenda Horizont Europa soll angezapft werden, erläuterte Binnenmarktkommissar Thierry Breton. Es sei wichtig, souveräne Infrastrukturen zur Verfügung zu stellen, "die von uns Europäern gemeistert werden". Nur so könnten Abhängigkeiten von einzelnen Anbietern oder Ländern vermieden werden.

Weitere Komponente des Pakets ist ein Entwurf für eine Maschinenverordnung [12], die die bestehende Richtlinie zur Produktsicherheit etwa von Robotern, Rasenmähern, 3D-Druckern, Baumaschinen und industriellen Produktionslinien erhöhen soll. Dabei geht es um die sichere Integration von KI-Systemen in den gesamten Maschinenpark. Insgesamt wolle die Kommission Europa "zur Weltklasse machen" im Bereich der Entwicklung vertrauenswürdiger Künstlicher Intelligenz. Die Technik müsse als "Triebkraft für den Fortschritt" dienen, da sie große Vorteile für die Gesellschaft entfalten könne.

(ds [13])


URL dieses Artikels:
https://www.heise.de/-6024041

Links in diesem Artikel:
[1] https://www.heise.de/news/EU-KI-Regeln-Standards-fuer-Gesichtserkennung-Verbot-von-Social-Scoring-6015853.html
[2] https://www.heise.de/news/KI-Regeln-EU-Abgeordnete-und-Forscher-fordern-Aus-fuer-Massenueberwachung-6018633.html
[3] https://www.heise.de/news/Reclaim-Your-Face-Europaweite-Unterschriftensammlung-gegen-Gesichtserkennung-5057588.html
[4] https://digital-strategy.ec.europa.eu/news-redirect/709090
[5] https://www.heise.de/news/Gesichtserkennung-Test-am-Bahnhof-Suedkreuz-erfolgreich-abgeschlossen-4189675.html
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://www.heise.de/thema/DSGVO#liste
[8] https://www.heise.de/news/G20-Randale-Biometrische-Gesichtserkennung-bringt-kaum-Ergebnisse-4138252.html
[9] https://www.heise.de/hintergrund/Missing-Link-Nothing-to-Hide-oder-Wie-mit-Social-Scoring-die-Privatsphaere-abgeschafft-wird-4102845.html
[10] https://digital-strategy.ec.europa.eu/news-redirect/709091
[11] https://digital-strategy.ec.europa.eu/news-redirect/709089
[12] https://ec.europa.eu/docsroom/documents/45508
[13] mailto:ds@heise.de