AI Act: EU-Verhandlungen über eine KI-Verordnung vertagt

Stundenlange Verhandlungen ohne Ergebnis: Der Trilog über den AI Act wurde auf Freitag vertragt. EU-Kommissar Breton spricht dennoch von Fortschritten.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
EU-Kommissar Breton

(Bild: dpa, Britta Pedersen)

Lesezeit: 3 Min.

Die Verhandlungen zwischen EU-Kommission, den Vertretern der Mitgliedsstaaten und des Parlaments über eine europäische Verordnung zur Künstlichen Intelligenz (AI Act) sind offenbar festgefahren. Auch nach einem zwanzigstündigen Verhandlungsmarathon in der vergangenen Nacht konnten sich die Unterhändler nicht auf eine gemeinsame Version einigen. Die sogenannten Trilog-Verhandlungen wurden unterbrochen und sollen am Freitagmorgen fortgesetzt werden, teilte EU-Kommissar Thierry Breton am Donnerstag mit und sprach von "vielen Fortschritten". Gestritten wird offenbar weiterhin über die Nutzung von biometrischen Daten und die Regulierung von Basismodellen.

Der AI Act ist Teil einer KI-Strategie der Europäischen Union. Dazu gehört etwa auch die Förderung von KI. Für Streit sorgte bereits seit Langem der Umgang mit biometrischen Daten, also beispielsweise die Gesichtserkennung. Generative KI und Basismodelle, die Diensten wie ChatGPT und Bildgeneratoren zugrunde liegen, waren bei der Ausarbeitung des Gesetzes zunächst kaum bedacht, weil sie schlicht noch längst nicht so leistungsfähig und breit verfügbar auf dem Markt waren. Hier entstand zuletzt aber großer Diskussionsbedarf, ob und inwieweit diese KI-Modelle reguliert werden sollen.

Das Gesetz zur Künstlichen Intelligenz (KI) will grundsätzlich nicht die Technik selbst, sondern Anwendungen regulieren, bei denen KI zum Einsatz kommt. Dazu hat die EU einen Risiko-basierten Ansatz gewählt. Dieser ist wiederum wie eine Pyramide aufgebaut. Es gibt eine große Basis an Diensten, die keiner Regulierung bedürfen. Dazu gehört beispielsweise der Einsatz von KI in Spamfiltern von E-Mail-Programmen oder in Videospielen.

Als "Transparenz"-Stufe oder "Begrenztes Risiko" werden Dienste wie Chatbots aufgelistet. Da hieß es bisher, Nutzer sollten darüber informiert sein, mit einer Maschine zu sprechen. Problematisch wird es, wenn es um KI-generierte oder mittels KI bearbeitete Texte und Bilder geht – und die Frage, ob diese gekennzeichnet werden müssen. Auch Deepfakes und Systeme zur Erkennung von Emotionen, wie es sie beispielsweise für Callcenter gibt, fallen in diese Kategorie.

In den Bereich "hohes Risiko" gehören etwa medizinische und juristische Anwendungen, das Recruitment, also Bewerbungsprozesse von Arbeitgebern, kritische Infrastrukturen wie beispielsweise der Verkehr und Dienste, die das Leben von Menschen beeinträchtigen können, wie Scoring-Systeme der Schufa. Diese Anwendungen sollen laut AI Act zertifiziert werden, bevor sie auf den Markt kommen dürfen. Außerdem bedürfen sie auch danach dauerhafter Kontrollen. Systeme, die biometrische sammeln und auswerten, werden auf dieser potenziell Risiko-behafteten Stufe angesiedelt.

Die Spitze der Pyramide machen KI-Systeme, deren Risiko als zu hoch eingestuft wird, die damit nicht angewandt werden dürfen. Dazu gehört ein Social-Scoring, wie es etwa in China betrieben wird.

(emw)