AI Act beschlossen: Zwischen vertrauenswürdiger KI und dystopischen Technologien

Die KI-Verordnung reduziere Risiken und schaffe Chancen, feiern Berichterstatter das "weltweit erste verbindliche Gesetz" für die Technik. Doch es gibt Kritik.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
A,Person's,Head,Covered,By,An,Ai-labeled,Dark,Cloud

(Bild: photoschmidt/ Shutterstock.com)

Lesezeit: 3 Min.

Nach rund drei Jahren Beratung hat das EU-Parlament am Mittwoch die Verordnung für Künstliche Intelligenz (AI Act) mit großer Mehrheit von 523 zu 46 Stimmen bei 49 Enthaltungen beschlossen. Sie etabliert laut der Einigung im Dezember einen risikobasierten Ansatz. Nur KI-Systeme, die als hochriskant eingestuft werden, müssen Sicherheitsanforderungen erfüllen. Dies gilt etwa für Medizinprodukte oder kritische Infrastrukturen. KI-Anwendungen, die die Rechte der Bürger bedrohen, werden verboten. Dazu zählen die biometrische Kategorisierung auf Basis sensibler Merkmale und das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungskameras. Untersagt werden auch Emotionserkennungssysteme am Arbeitsplatz und in Schulen sowie Social Scoring. Vorausschauende Polizeiarbeit wird eingeschränkt, doch Hintertüren etwa für automatisierte Gesichtserkennung durch Strafverfolger stehen offen.

"Europa setzt heute globale Standards für vertrauenswürdige KI", erklärte EU-Binnenmarktkommissar Thierry Breton. "Endlich haben wir das weltweit erste verbindliche Gesetz zur Künstlichen Intelligenz, um Risiken zu reduzieren, Chancen zu schaffen, Diskriminierung zu bekämpfen und Transparenz zu gewährleisten", betonte Brando Benifei (Sozialdemokraten) als einer der Berichterstatter des Parlaments. Die EU habe geliefert, ergänzte sein Kollege, der Liberale Dragos Tudorache. Weitere Regulierungen seien aber nötig, da KI den Gesellschaftsvertrag berühre, der im Kern von Demokratien, Bildungssystemen, Arbeitsmärkten und der Kriegsführung stehe. Patrick Breyer (Piratenpartei) kritisierte, der AI Act verbiete nicht "dystopische Technologien" wie flächendeckende und permanente Echtzeit-Gesichtserkennung, einschüchternde Verhaltensüberwachung im öffentlichen Raum oder unwissenschaftliche "Video-Lügendetektoren".

Der Bundesdatenschutzbeauftragte Ulrich Kelber sieht in den neuen Vorgaben eine Ergänzung zur Datenschutz-Grundverordnung (DSGVO). So werde etwa der Schutz vor automatisierter Entscheidung gestärkt und durch das Erfordernis menschlicher Aufsicht erweitert. Versäumt worden sei aber ein "klares Verbot biometrischer Fernerkennung im öffentlichen Raum". Die Bundesregierung sollte die Öffnungsklausel für striktere nationale Verbote nutzen, riet Kelber auch im Sinne mehrerer zivilgesellschaftlicher Organisationen. Der Bundesverband der Verbraucherzentralen (vzbv) schließt sich dieser Forderung an. Für ihn stellt der AI Act eine Verbesserung dar, er reiche aber nicht aus.

So dürfte der Umgang mit KI für Verbraucher transparenter werden, erläutert der vzbv: Sie erhielten bei Systemen mit besonders hohem Risiko ein Recht auf Erklärung – etwa beim Abschluss von Versicherungen. Es sei aber fraglich, ob sich solche Angaben im Streitfall nutzen ließen, um beispielsweise gegen Diskriminierung vorzugehen. Zudem würden einige manipulative Praktiken untersagt, persönliche Schwächen von Verbrauchern dürfen nicht von KI ausgenutzt werden. Das Verbot greife aber nur, wenn eine solche Manipulation absichtlich erfolge. Der TÜV-Verband legt Akteuren im KI-Ökosystem nahe, schon jetzt die Voraussetzungen für die Prüfung von KI-Systemen zu schaffen. Zwar wird der AI Act erst in etwa zwei Jahren greifen, aber alle wesentlichen Eckpunkte seien bekannt. Viele Anforderungen könnten die Anbieter in bestehende Qualitäts- und Risikomanagementsysteme integrieren.

(anw)