Künstliche Intelligenz: AI Act kann in Kraft treten

Nach dem EU-Parlament haben die EU-Staaten dem AI Act zugestimmt. Jetzt gehe es darum, schnell Klarheit zu manchen offenen Fragen zu schaffen, meint der Bitkom.

In Pocket speichern vorlesen Druckansicht
Smart,Device,Virtual,Control,Interface.,Artificial,Intelligence,New,Application,Ai

(Bild: Anterovium/Shutterstock.com)

Lesezeit: 4 Min.

Der Europäische Rat hat den zuvor vom EU-Parlament beschlossenen AI Act gebilligt. Er kann nun in Kraft treten, sobald er im EU-Amtsblatt veröffentlicht wurde. Mit dem Gesetz sollen die gesetzlichen Bestimmungen über den Umgang mit Künstlicher Intelligenz EU-weit harmonisiert werden. Je höher das Risiko für gesellschaftlichen Schaden, desto strenger sind die Regeln, wie die EU-Mitgliedsstaaten in einer Mitteilung erläutern. Gleichzeitig soll das Gesetz Investitionen in sichere und vertrauenswürdige KI-Systeme eine Basis schaffen.

KI-Systeme mit begrenztem Risiko sollen leichten Transparenzverpflichtungen unterliegen, während KI-Systeme mit hohem Risiko in der EU nur zugelassen werden, wenn sie einige strengere Anforderungen erfüllen. Als Beispiele führt der EU-Rat Systeme auf, die soziale Bewertungen vornehmen oder Verhalten manipulieren. Verboten ist auch KI für vorbeugende Polizeiarbeit, die mit Profiling und biometrischen Daten Menschen nach bestimmten Kategorien wie Rasse, Religion oder sexueller Orientierung kategorisiert.

Ein besonderes Augenmerk legt der EU-Rat in seiner Mitteilung auf "general purpose AI" (GPAI) oder auch Allzweck-KI, zu denen er auch KI-Chatbots zählt. Diese im AI Act zu berücksichtigen, geschah gar nicht im Sinne von Unternehmen wie Google oder Microsoft. Der Rat erläutert nun, GPAI-Modelle ohne systemische Risiken unterlägen einigen begrenzten Anforderungen, zum Beispiel in Bezug auf Transparenz. Strengere Regeln sollen für GPAI-Modelle mit systemischen Risiken gelten.

Um die neuen Regeln zu konkretisieren und durchzusetzen, richtet die EU-Kommission ein "AI Office" ein. Ein Gremium unabhängiger wissenschaftlicher Experten soll das Büro bei seiner Arbeit unterstützen. Zudem soll ein AI Board mit Vertretern der EU-Mitgliedsstaaten die Kommission dabei beraten, den AI Act konsistent und effektiv anzuwenden. Als viertes Gremium ist ein Beratungsforum bestehend aus Vertretern von Interessengruppen vorgesehen, die der EU-Kommission mit ihrer technischen Expertise zur Seite stehen.

Der belgische Staatssekretär Mathieu Michel bezeichnete den AI Act als wegweisend. Es sei das erste Gesetz dieser Art weltweit. Es befasse sich mit einer "globalen technologischen Herausforderung", die für Gesellschaften und Volkswirtschaften auch Chancen biete. Dabei betone der AI Act die Bedeutung von Vertrauen, Transparenz und Rechenschaftspflicht im Umgang mit neuen Technologien und stelle gleichzeitig sicher, dass diese in Europa florieren können.

Das ist durchaus im Sinne des deutschen IT-Branchenverbands Bitkom. Allerdings lasse der AI Act noch wesentliche Fragen offen. "Ob KI in Deutschland und Europa einen Schub erhält oder vor allem vor neue Hindernisse gestellt wird, hängt entscheidend davon ab, wie dieser Rahmen ausgestaltet und die Regelungen in Deutschland umgesetzt werden", sagte Bitkom-Präsident Ralf Wintergerst.

Die EU-Kommission müsse nun das AI Office schnellstmöglich einrichten und damit beginnen, die Anforderungen für GPAI-Modelle umzusetzen. "Weil diese bereits Mitte kommenden Jahres wirksam werden sollen, ist insbesondere wichtig, dass die Regulierung für diese KI-Basismodelle bürokratiearm und praxisnah gestaltet wird", fordert Wintergerst. Die Bundesregierung müsse schnell einen Vorschlag für ein nationales Durchführungsgesetz vorlegen, damit die Unternehmen wissen, was auf sie zukommt.

Die Aktivisten von AlgorithmWatch begrüßen, dass "es nun nach drei Jahren Verhandlung ein Gesetz gibt, das den Einsatz so genannter Künstlicher Intelligenz in der EU regelt". KI sei schon in vielen Bereichen des täglichen Lebens im Einsatz, daher sei es höchste Zeit, dafür einen Rechtsrahmen zu haben.

"Bedauerlich ist, dass der Schutz von Grundrechten dabei zu kurz kommt", meint Matthias Spielkamp, Geschäftsführer von AlgorithmWatch. Es gebe zu viele Schlupflöcher und Ausnahmen. "Allein durch die schlechte Definition von KI wird es Unternehmen und Staat zu leicht gemacht, hochproblematische KI-Systeme einzusetzen – etwa zu dem Zweck, die Vergabe von Sozialleistungen zu automatisieren." Es fehle ein vollständiges und eindeutiges Verbot von Gesichtserkennung im öffentlichen Raum. "Wir werden genau beobachten, welche Durchsetzungskraft die KI-Verordnung entfaltet und weiter Druck machen, dass Grund- und Menschenrechte gewahrt bleiben", sagte Spielkamp.

(anw)