AI Act: KI-Gesetz der EU droht zu kippen

Der Vermittlungsprozess zum KI-Gesetz der EU steckt in einer Sackgasse. Dabei wäre es dringend nötig, meint Wolfgang Stieler.

In Pocket speichern vorlesen Druckansicht 32 Kommentare lesen

(Bild: everything possible/Shutterstock.com)

Lesezeit: 4 Min.

Der Trilog zum KI-Gesetz der EU droht zu scheitern. Das berichtet das Online-Portal Euraktiv unter Berufung auf unterrichtete Quellen. Hauptstreitpunkt ist die Regulierung von "General Purpose AI Models" – also großen Sprachmodellen wie Llama 2 oder GPT-4. Einzelne Regierungen, wie die von Frankreich und Deutschland, sind gegen die strenge Regulierung solcher Modelle.

Sollte der Prozess Anfang Dezember nicht wieder ins Laufen kommen, könnte nicht genug Zeit bleiben, um das Gesetz noch vor der Wahl des nächsten Europaparlaments im Juni 2024 zu verabschieden. Das ehrgeizige Vorhaben könnte dann sogar komplett scheitern.

Eine Analyse von Wolfgang Stieler

Nach dem Studium der Physik wechselte Wolfgang Stieler 1998 zum Journalismus. Bis 2005 arbeitete er bei der c't, um dann als Redakteur der Technology Review zu wirken. Dort betreut er ein breites Themenspektrum von Künstlicher Intelligenz und Robotik über Netzpolitik bis zu Fragen der künftigen Energieversorgung.

Das Gesetz zur Regulierung von KI-Anwendungen ist seit 2021 in der Diskussion – damit war die EU in dieser Frage weltweit führend. Die ursprüngliche Idee: Anwendungen künstlicher Intelligenz werden in Risikoklassen eingeteilt. Bestimmte Anwendungen, wie zum Beispiel Echtzeit-Biometrie, werden komplett verboten. Hochrisiko-Anwendungen, bei denen die KI in essenzielle Lebensbereiche eingreifen würde, wie im medizinischen Bereich, in der Justiz oder Strafverfolgung, werden streng reguliert.

Der rasante Aufstieg großer Sprachmodelle führte allerdings dazu, dass die Diskussion komplett neu aufgerollt wurde. Der Europäische Rat schlug zunächst vor, Foundation Models überhaupt nicht zu regulieren – eine Position, die später modifiziert wurde, während das EU-Parlament sich für eine weitgehende Regulierung solcher Modelle, unabhängig von ihrer konkreten Anwendung stark macht.

In dem mittlerweile laufenden Trilog-Prozess, einer nicht öffentlichen Abstimmung zwischen EU-Parlament, EU-Kommission und Europäischem Rat, geht es nur darum, einen Kompromiss zu finden. Wie üblich werden solche internen Beratungen auch von einer intensiven Lobby-Tätigkeit begleitet und geformt.

Laut Euraktiv zeichnete sich noch im Oktober ein Kompromiss ab, der darin bestehen könnte, dass Hersteller besonders "mächtiger" Modelle sich mit Audits durch eine noch zu schaffende EU-Behörde einverstanden erklären. "Die Prüfungen können von der Kommission, von unabhängigen Prüfern oder von überprüften Red-Teamern mit API-Zugang zum Modell durchgeführt werden", schreibt Euraktiv. "Der vorgeschlagene Governance-Rahmen umfasst das KI-Büro und ein wissenschaftliches Gremium für regelmäßige Konsultationen mit der wissenschaftlichen Gemeinschaft, der Zivilgesellschaft und den Entwicklern."

Doch insbesondere die französische Regierung fürchtet wohl, dass diese Regulierungen innovative Start-ups abwürgen könnte. Der Gründer von Mistral AI, das ein eigenes großes Sprachmodell entwickelt, beklagte erst kürzlich, sein Unternehmen könnte durch den AI Act "gekillt werden", heißt es in einer Stellungnahme. Nicht ganz so drastisch, aber ähnlich kritisch hatte sich auch Jonas Andrulis, Gründer des deutschen KI-Startups Aleph Alpha in seiner Stellungnahme geäußert.

"Es war zu erwarten, dass es auf der Zielgeraden nochmals zu erhitzten Argumenten kommen wird. Ich hoffe aber, dass sich am Ende eine gute Lösung zwischen Grundrechtsschutz und den Interessen der Industrie finden lassen wird", schreibt die Juristin Sandra Wachter vom Oxford Internet Institute. "Gute Gesetze kommen nicht zu früh und nicht zu spät. Gesetze, die zu früh kommen, können Innovation verhindern, vor allem wenn potenzielle Risiken noch nicht klar sind. Gesetze, die zu spät kommen, verpassen es, Schäden zu verhindern. Der AI Act hat die Chance, genau zur rechten Zeit in Kraft zu treten."

"Wir kennen bereits die Risiken. Sie sind klar, real, und problematisch", schreibt Wachter weiter. "Die KI kann in der Strafrechtspflege, im Versicherungswesen, und in der Arbeitswelt benachteiligen und diskriminieren – unter anderem gegen Frauen und Menschen, die nicht weiß sind – wenn sie Entscheidungen trifft.

Gleiches gilt für Foundationmodels oder GenAI. Wir wissen, dass diese zur Misinformation beitragen. Beide haben einen massiven negativen Einfluss auf die Umwelt. Wir wissen, dass das Trainieren der Modelle und die Datenwartung Unmengen von Strom, Wasser und andere Ressourcen kostet. Wir wissen auch, dass diese Modelle Unmengen von Daten brauchen, was uns vor neue Datenschutz und Copyright Fragen stellt. Und wir wissen, dass diese Systeme Arbeitsplätze teil- oder ganz automatisieren können."

Wachters Fazit: "Wir kennen diese Risiken und daher müssen wir diese ernst nehmen. Mehr noch: wenn eine Technologie so viele potenzielle Risiken hat, dass man diese nicht mehr zuverlässig vorhersagen kann, dann ist das meiner Meinung nach schon per Definition eine hoch-Risiko-Technologie. Daher hoffe ich, dass der AI Act sich diesen Themen annehmen wird."

(wst)