Interview zum AI Act: Zustimmung trotz teils "chaotischer" Zustände
Deutschland stimmt dem AI Act am Freitag zu. Kai Zenner aus Brüssel erklärt, was zuvor und nach wie vor für Unzufriedenheit sorgt.
Kai Zenner ist BĂĽroleiter und Digitalpolitik-Berater des Europaabgeordneten Axel Voss. Er ist in BrĂĽssel an der Ausarbeitung des AI Act beteiligt.
heise online: Herr Zenner, eigentlich hatten wir doch schon im Dezember mit dem Trilog die Einigung zum AI Act, was ist da los, dass sich alle jetzt nochmal zu Wort gemeldet haben?
Kai Zenner: Die französische Regierung ist mindestens seit einem halben Jahr gegenüber dem AI Act sehr kritisch eingestellt. Sowohl mit den Regeln für General Purpose AI (GPAI) als auch mit den Ausnahmen für Strafverfolgungsbehörden beim Einsatz von AI, welche Paris noch weiter ausbauen wollte. Frankreich und Volker Wissing, also das deutsche Digitalministerium, haben sich in den letzten Wochen mehrfach getroffen und verabredet, dass sie Widerstand, erst gegen die Verhandlungen, dann gegen die Einigung zum AI Act, organisieren wollen. Italien schloss sich an. Die Verhandlungsparteien in Brüssel haben gegenüber Frankreich dann reichlich Zugeständnisse gemacht – sogar noch nach dem 6. Dezember, also den politischen Trilogverhandlungen, mit weiteren nachträglichen Änderungen im Text. Das hat für große Turbulenzen und Enttäuschungen im Parlament gesorgt. Die Kommission ist auch sehr unruhig geworden, weil die drei Mitgliedsstaaten mit einem weiteren Verbündeten von der Bevölkerungszahl her ein Veto im Rat gegen den AI Act einlegen hätten könnten.
Deutschland will nun doch zustimmen? Warum dann die Querelen?
Ich glaube, das wurde alles ein bisschen aufgebauscht. Die Grünen und die Sozialdemokraten waren in Deutschland nämlich schon immer für den AI Act, so auch das liberale Justizministerium. Eine deutsche Zustimmung war daher wahrscheinlich. In den letzten Tagen äußerten sich viele deutsche Wirtschaftsverbände, die sagten, es sei besser, einen AI Act zu haben, als keinen. Auch wenn das Gesetz große Schwächen aufweise. Alles zu pausieren, bedeute, dass es ungewiss sei, ob und wann der AI Act komme. Für Unternehmen, welche schon Compliance-Mechanismen aufgebaut haben und langfristig investieren wollen, wäre schnelle Rechtssicherheit vorzuziehen. Diese Aussagen hat die deutsche Bundesregierung wohl ebenso zur finalen Zustimmung bewogen.
Und für die Bevölkerung?
Auch da bedeutet der AI Act zunächst eine Stärkung der Persönlichkeitsrechte und der Grundrechte durch eine Reihe von Verboten sowie Vorschriften für Hochrisiko KI-Systeme. Zudem haben Bürger in Zukunft ein Auskunftsrecht über die Einbeziehung von KI bei Entscheidungen zu ihren Lasten. Die Regelungen zum Schutz von Grundrechten sind nicht in allen Punkten klar und es gibt zahlreiche Ausnahmen, aber es ist ein Schritt in die richtige Richtung. Ich denke, die Mitgliedstaaten werden sich am Freitag durchringen und dem AI Act zustimmen.
Lesen Sie auch
Auch Frankreich?
Die französische Regierung wollte durch diesen Aufstand in letzter Minute noch weitere Zugeständnisse erzwingen. Eine Öffnung des fertig verhandelten Texts hätte aber bei anderen Akteuren – auch uns – dafür gesorgt, ebenfalls wieder neue Forderungen zu stellen. Man hätte damit also die Box der Pandora geöffnet. Ich denke, das ist der Hauptgrund, warum am Ende eine Mehrheit der Mitgliedstaaten und im Parlament für das Gesetz stimmt.
Womit sind Sie und Ihr Chef, Axel Voss, denn unzufrieden?
Es ist ein Sammelsurium. Zunächst erkennen wir an, dass wir als Parlament sehr viele Siege davontragen konnten. Das Gesetz ist deutlich flexibler geworden, es enthält keine zu starren Regeln mehr für Hochrisiko-KI Systeme. Wir haben Reallabore und andere Maßnahmen zur Stärkung von Innovation ausbauen können. Persönlich bin ich sehr stolz auf die Bereiche, in denen es um Open-Source, die KI-Wertschöpfungskette und GPAI geht, da ich hier sehr viel Arbeit investiert habe, in der Hoffnung den Digitalsektor ein wenig ausgewogener zu machen.
Das große Problem des AI Acts war für uns zum einen der gesetzgeberische Prozess, weil die Verhandlungen im Parlament wie auch die im Trilog von riesiger Intransparenz geprägt waren. Die Presse wusste meistens schneller und besser Bescheid über neue Vorschläge und Entwicklungen als Axel Voss und die anderen Schattenberichterstatter. Die deutsche Bundesregierung und die anderen Mitgliedsstaaten oft sogar noch später. Die Kommission agierte teilweise auch chaotisch: beim mehrtägigen Verhandlungsmarathon im Dezember wurden uns ständige neue Texte zu GPAI und zu anderen Themen vorgelegt. Wir hatten nur wenige Minuten, diese zu prüfen und konnten auch keine Rücksprache mit Experten halten. Das Ergebnis: der Text ist an vielen Stellen extrem vage geworden, zum Teil auch fehlerhaft. Beispielsweise wurde beschlossen, dass das AI Office sich ausschließlich um GPAI kümmert und das Board alle anderen Aufgaben übernimmt. Im finalen Text wird aber fast nur das Office erwähnt – die alte Textfassung wurde schlicht nicht mehr aktualisiert.
Was kann das fĂĽr Folgen haben?
Ein unklarer Gesetzestext ist für alle schlecht. Stellen Sie sich vor, ein Unternehmen oder eine zivilgesellschaftliche Organisation klagt gegen ein großes amerikanisches Technologieunternehmen. Mithilfe seiner exzellenten Anwälte und Berater wird es Schlupflöcher finden. Es wird Passagen identifizieren, die unterschiedlich auszulegen sind oder sich sogar widersprechen. Klagen werden deswegen reihenweise scheitern. Auch konzeptionell haben Axel und ich Probleme mit dem Produktsicherheitsansatz des Gesetzes. In der Vergangenheit ein Garant für die Sicherheit im EU-Binnenmarkt passt dieser legislative Ansatz nicht so richtig zu KI. Produktsicherheitsgesetze zielen auf Produkte ab, die eine feste Form haben, etwa eine Flasche oder ein Staubsauger. KI entwickelt sich jedoch weiter und kann neue Fähigkeiten antrainiert bekommen. Was passiert dann? Muss der KI-Entwickler ständig neue Konformitätsprüfungen durchführen? Compliance Kosten werden in die Höhe schießen. So werden wir wohl nicht KI-Weltmarktführer.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Was befĂĽrchten Sie?
Innovation braucht Rechtssicherheit. Diese ist mit dem KI-Gesetz aber kaum herzustellen. Axel und ich befürchten, dass nach der Übergangsfrist ab 2026 für viele Entwickler und Anwender erstmal eine Phase der großen Rechtsunsicherheit beginnt, wie wir damals bei der DSGVO in 2018 auch beobachten konnten. Darunter werden insbesondere europäische Unternehmen leiden, weil sie sich überlegen müssen, ob sie wirklich unter diesen Umständen in KI investieren wollen. Es bleibt daher aktuell nur zu hoffen, dass unsere Befürchtungen nicht zutreffen und in den nächsten Monaten Kommission und Standardisierungsorganisationen die vorhandenen Unklarheiten über Guidelines und technische Standards signifikant beheben können.
Brüssel hat sich meiner Meinung nach leider in eine Gesetzgebungs-Maschine entwickelt. Es geht nur noch darum, immer mehr und immer schneller Gesetze zu verabschieden. Die Qualität ist nachrangig. Das ist wirklich traurig, denn ich bin überzeugter Europäer und ein großer Fan von Brüssel. Auch verfolgen fast alle Gesetze gute Ziele, haben die richtigen Probleme identifiziert und präsentieren gute Ideen, aber der Teufel steckt im Detail. Es fehlt daran, zu überprüfen, wie sich beispielsweise der AI Act und die DSGVO, Data Act oder DSA zueinander verhalten und was die Folgen von bestimmten Vorgaben sind. Diese Kleinstarbeit, die anstrengend ist, wird heutzutage zu wenig gemacht. Auch der Austausch mit Experten wird häufig als lästig betrachtet. Stattdessen konzentriert man sich auf die Präsentation in der Presse und in den Sozialen Medien. Die Folge sind fehlerhafte Gesetze und Probleme bei der Umsetzung, was wieder dazu führt, dass sich viele Bürger über Europa aufregen. Ein Teufelskreis, den wir möglichst schnell stoppen sollten.
(emw)