Kampf um AI Act in der EU: 1012 Treffen mit 551 Lobbyisten

Die Europäische Union wollte Künstliche Intelligenz regulieren. Dann kam ChatGPT. Ein Kompromiss ist nun weiter entfernt denn je.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Eu,Flag,Smoke

(Bild: vladm/Shutterstock.com)

Lesezeit: 11 Min.
Von
  • Bernd Müller
Inhaltsverzeichnis

Es ist fast ein Naturgesetz: Jede Technologie, die man missbrauchen kann, wird früher oder später missbraucht. Im Falle von Künstlicher Intelligenz eher früher. KI wird in China eingesetzt, um die Bürger zu überwachen, etwa um Oppositionelle per Gesichtserkennung zu identifizieren oder unerwünschtes soziales Verhalten zu sanktionieren.

Man muss aber gar nicht in die Ferne schweifen, auch in Europa arbeitet KI in Anwendungen, bei denen die Einhaltung von Bürgerrechten zumindest zweifelhaft ist. Staaten mit Außengrenzen setzen sie ein, um unerwünschte Migranten zurückzuweisen. Anlasslose Überwachung im öffentlichen Raum, Profiling zur Verbrechensbekämpfung, Risikoanalyse bei der Vergabe von Krediten: All das und vieles mehr ist heute mit KI möglich und wird auch genutzt.

KI-Schwerpunkt in MIT Technology Review

Dieser Artikel ist Teil der kommenden Ausgabe von MIT Technology Review, die am 11. Mai 2023 als Print-Heft erscheinen wird. Auf heise+ lesen Sie diesen und weitere Texte aus dem Schwerpunkt "Künstliche Intelligenz" vorab exklusiv online.

Dass Missbrauch von KI in freiheitlich-demokratischen Gesellschaften nicht erlaubt werden darf, darin sind sich die Politiker und zivilgesellschaftlichen Organisationen in der Europäischen Union einig. Und so hat die EU-Kommission 2018 eine Initiative gestartet, an deren Ende eine Regulierung für Künstliche Intelligenz stehen soll. Dieser AI-Act, wie er seit einem Vorschlag der Kommission von 2021 heißt, wird seit zwei Jahren im EU-Parlament und vom Europäischen Rat diskutiert. Die konservative Fraktion pocht dabei auf eine wirtschaftsfreundliche Auslegung ohne Überregulierung, Linke dagegen möchten alle denkbaren Schlupflöcher zum Missbrauch per Gesetz schließen. Umstritten ist dabei, ob nur die Anwendung zu regulieren ist oder auch das zugrunde liegende KI-Modell. Das ist wichtig bei KIs, die – je nach Einsatzzweck – an verschiedene Aufgaben angepasst werden können. Sie sind keinem einzelnen Einsatzzweck eindeutig zuzuordnen und werden deshalb im Fachjargon General Purpose AI genannt. General Purpose AI sei wie ein kleines Kind, das man in unterschiedliche Richtungen erziehen könne, formuliert es Tamara Fischer, Data-Analytics-Spezialistin bei SAS, einem US-Anbieter von Analytics- und KI-Software.