AI Act tritt in Kraft: Was Sie zur KI-Verordnung wissen müssen

Mit 1. August 2024 gilt der AI Act, KI wird in der EU reguliert. Der Fahrplan für die Regulierungen sieht jedoch weitere Termine vor. Eine FAQ.

In Pocket speichern vorlesen Druckansicht 42 Kommentare lesen

(Bild: Shutterstock/Phonlamai Photo)

Lesezeit: 8 Min.
Inhaltsverzeichnis

Es wurde gerungen und gerauft, bis der AI Act stand. Nachdem die KI-Verordnung am 12. Juli im EU-Amtsblatt veröffentlicht wurde, tritt sie mit dem heutigen 1. August 2024 in Kraft. Das bedeutet jedoch nicht, dass sie sofort in Gänze für jedermann gilt. Es gibt einen weiteren Fahrplan, wer sich wann an welche Pflichten und Regulierungen halten muss.

Das Gesetz wirkt direkt in allen EU-Mitgliedsstaaten. Es reguliert grundsätzlich alle KI-Systeme und Modelle. Wie genau die Pflichten ausschauen, regelt ein Risiko-basierter Ansatz. KI-Systeme sind in Risiko-Klassen einsortiert, für die unterschiedliche Fristen und Regeln gelten. Die derzeit viel besprochene generative KI fällt unter den Begriff GPAI – General Purpose AI. Für sie gibt es sogar gesonderte Regelungen, denn während der Ausarbeitung des AI Acts gab es ChatGPT und Co. noch gar nicht. Wie diese Anwendungen integriert werden können, wurde daher erst nachträglich verhandelt.

Ein halbes Jahr nach Inkrafttreten des AI Acts, mit dem 2. Februar 2025, werden die ersten Anwendungen mit einem unannehmbaren Risiko verboten. Dazu gehört das Social Scoring, also Systeme zur Überwachung von Menschen, wie sie etwa in China eingesetzt werden. Grundsätzlich verboten ist auch die biometrische Echtzeit-Fernidentifizierung im öffentlich zugänglichen Raum durch Strafverfolgungsbehörden.

Doch es gibt Ausnahmen, die vor allem Bürgerrechtler kritisieren. Individuelle vorausschauende polizeiliche Überwachung ist ebenfalls verboten, aber auch hier gibt es Unterschiede. Verboten ist, auf Basis dieser Daten zu handeln. Am Arbeitsplatz und in Bildungseinrichtungen darf es zudem keine Emotionserkennung geben. Ausnahme sind etwa Piloten von Flugzeugen, bei denen die Systeme Müdigkeit erkennen können. Bilder von Gesichtern dürfen nicht einfach so analysiert und ausgewertet werden.

KI-Anwendungen, die sich negativ auf die Sicherheit der Menschen und die Grundrechte auswirken können, sind mit einem hohen Risiko behaftet. Es gibt eine Liste mit solchen Anwendungen, die ständig erweitert werden kann.

Hoch-Risiko-KI-Systeme müssen sich an einige Vorgaben halten. Dabei geht es um die Robustheit und Genauigkeit der Daten, die die Grundlage der Systeme bilden, es gibt Dokumentations- und Transparenzpflichten sowie die Notwendigkeit einer menschlichen Aufsicht. Die Regulierung greift hier ab dem 2. August 2026, also zwei Jahren.

Um ein KI-System mit hohem Risiko in Verkehr zu bringen, muss es einer Konformitätsbewertung unterzogen werden. Damit wird belegt, dass es den Anforderungen entspricht. Anbieter müssen Qualitäts- und Risikomanagementsysteme einführen.

Die meisten KI-Systeme können entwickelt und genutzt werden, ohne dass es für sie Auflagen gibt. Im Raum steht, dass das etwa für rund 80 Prozent aller KI-Systeme gilt. Allerdings stammt diese Zahl aus der Zeit vor ChatGPT und Co. – da für GPAI Regulierungen greifen, könnte die Zahl inzwischen etwa kleiner sein. Dennoch werden die meisten KI-Anwendungen einfach so weiterhin angeboten werden können. Dazu gehören beispielsweise Spamfilter in Mail-Programmen und Algorithmen, die für Suchfunktionen eingesetzt werden. KI steckt seit Langem in unzähligen Diensten, dabei muss zwischen den aktuell gehypten Anwendungen generativer KI und anderen KI-Systemen unterschieden werden.

General Purpose AI oder KI-Modelle mit allgemeinem Verwendungszweck sind jene, zu denen die Großen Sprachmodelle gehören. Anwendungen, die auf diesen Modellen basieren, können sogenannte systemische Risiken bergen. Die EU-Kommission schreibt in einer Übersicht zum AI Act, "solche leistungsfähigen Modelle könnten beispielsweise schwere Unfälle verursachen oder für weitreichende Cyberangriffe missbraucht werden." Auch Verzerrungen durch ein KI-Modell könnte zahlreiche Menschen negativ betroffen machen. GPAI wird ab 2. August 2025 nach der KI-Verordnung reguliert.

Transparenzpflichten: KI-Anwendungen, die dazu dienen können, Menschen zu manipulieren, müssen bestimmten Transparenzpflichten nachkommen. Nutzerinnen und Nutzer müssen wissen, wenn sie beispielsweise mit einem Chatbot kommunizieren.

Anbieter von großen KI-Modellen sind verpflichtet, alle nötigen Informationen bereitzustellen, damit nachgelagerte Systemanbieter sicherstellen können, dass sie den Gesetzen entsprechen. Sprich, wer OpenAIs KI-Modelle nutzt und selbst zu einem ihrer Anbieter wird, muss sicherstellen, dass sein Dienst der KI-Verordnung entspricht. OpenAI muss die Informationen liefern.

Anbieter von GPAI müssen sicherstellen, dass sie beim Trainieren ihrer KI-Modelle nicht das Urheberrecht verletzen. Allerdings ist dabei noch nicht ganz klar, wann sie das tun würden. Die Meinungen, ob das Training mit urheberrechtlich geschützten Material zulässig ist, gehen auseinander. Grundsätzlich kennt das Urheberrecht diesen Fall einfach noch nicht.

Prinzipiell folgt die Risikoeinstufung nach dem Zweck eines KI-Systems. Es wird Produktsicherheitsvorschriften geben. Der Verordnung hängen eine Reihe Anwendungsfälle an, die man nutzen kann, um für sich selbst einen Vergleich zu ziehen. Zuständig für die Liste ist die Kommission.

Für GPAI-Modelle gibt es zudem eine definierte Grenze. Jene, die mit einer Gesamtrechenleistung von mehr als 10^25 FLOPs trainiert wurden, bergen generell systemische Risiken. Diese Grenze ist allerdings umstritten, weil die Größe nicht unbedingt mit dem ausgehenden Risiko gleichzusetzen ist. Bisher treffen sie wohl nur Modelle ab der Größe von GPT-4 und wahrscheinlich Gemini.

Für Anbieter von Modellen systemischer Risiken gilt, dass sie Risiken bewerten, schwerwiegende Fälle melden, Tests für die Bewertung der Modelle durchführen und die Cybersicherheit gewährleisten müssen. Außerdem ist es Pflicht, Angaben zum Energieverbrauch der Modelle zu machen. Bisher schweigen sich OpenAI, Google und Co. da eher aus. Klar ist jedoch, dass KI ausgesprochen Ressourcen-hungrig ist.

Es gibt ein Grundrecht auf ein hohes Umweltschutzniveau, heißt es in der KI-Verordnung. Anbieter müssen an der Verbesserung der Ressourceneffizienz arbeiten. Ob genug getan wird, prüft die Kommission – im Allgemeinen. Anbieter von GPAIM müssen ihren Energiebedarf offenlegen.

Grundsätzlich ist Gesichtserkennung für die Strafverfolgung verboten. Es gibt aber 16 festgelegte Straftaten, bei denen sie doch erlaubt ist. Die gezielte Suche nach Opfern bei Entführungen und Menschenhandel erlauben den Einsatz biometrischer Erkennungssoftware, genauso ein drohender Terroranschlag, illegaler Handel mit Drogen und Waffen, schwere Körperverletzung, Mord, Vergewaltigung und Umweltkriminalität.

Allerdings bedarf der Einsatz einer vorherigen Genehmigung durch eine Justiz- oder Verwaltungsbehörde, auch hier gibt es Ausnahmen. Außerdem muss eine Folgenabschätzung in Bezug auf die Grundrechte stattfinden.

Jeder EU-Mitgliedsstaat muss eine nationale Behörde stellen. In Deutschland wollen das die Landesdatenschutzbehörden übernehmen. Auch die Bundesnetzagentur könnte den Zuschlag bekommen. Entschieden ist das noch nicht. Jeder Staat soll einen Vertreter dieser Behörde für den Europäischen Ausschuss für künstliche Intelligenz stellen.

Es wird ein Beratungsforum geben und ein Europäisches KI-Büro, dieses AI Office ist in Brüssel der DG Connect zugeordnet, also der Brüsseler Generaldirektion für Kommunikationsnetze, Inhalte und Technologien. Ihnen obliegt die Überwachung der GPAI-Modelle. Unterstützt wird das Büro von einem wissenschaftlichen Gremium, das unabhängige Sachverständige stellen soll. Auch das KI-Amt soll Fachwissen einbringen. "Neben der Aufstellung von Verhaltenskodizes zur Präzisierung des Regelwerks gehört dazu auch seine Rolle bei der Klassifizierung von Modellen mit systemischen Risiken und bei der Überwachung der wirksamen Umsetzung und Einhaltung der Vorschriften."

Bei Verstößen drohen drakonische Strafen. Bis zu 35 Millionen Euro oder 7 Prozent des gesamten weltweiten Vorjahresumsatzes bei verbotenen Praktiken und Verletzungen von Datenanforderungen. 15 Millionen oder 3 Prozent bei anderen Verstößen, also auch bei Anforderungen an GPAI. 7,5 Millionen oder 1,5 Prozent bei falschen oder irreführenden Angaben an zuständige Behörden. Beschwerde einlegen kann jede Person bei der nationalen Behörde.

(emw)