ChatGPT, Predictive Policing & Co.: Streit über rote Linien in EU-KI-Verordnung

Sollen ChatGPT und generative Sprachmodelle als Hochrisiko-Technologie in der EU reguliert werden? EU-Abgeordnete sind sich über die geplanten KI-Regeln uneins.

In Pocket speichern vorlesen Druckansicht
Elektronischer Finger zeigt auf Gehirn im Bild eines Kopfes

(Bild: Skorzewiak/Shutterstock.com)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Seit rund zwei Jahren läuft im Europäischen Parlament bereits die Debatte über den Vorschlag der EU-Kommission für eine Verordnung für Künstliche Intelligenz (KI). Doch "wesentliche Weichenstellungen und Klassifizierungen sind noch nicht erfolgt", erklärt der EU-Abgeordnete Axel Voss (CDU), der als Schattenberichterstatter im Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE) fungiert. Einer der Knackpunkte: Als die Volksvertreter insgesamt schon rund 3300 Änderungsanträge eingebracht hatten, ging der Hype um den Sprachroboter ChatGPT gerade richtig los.

Nun überlegen die Parlamentarier, ob KI-Systeme mit vielen möglichen Einsatzzwecken wie Sprach- oder Bilderkennung ("General Purpose AI") speziell reguliert und möglicherweise als Hochrisiko-Technologie eingestuft werden sollen. Sie würden so nicht verboten; für sie gälten aber höhere Anforderungen, etwa an die Transparenz rund um die eingesetzten Trainingsdaten für Algorithmen. Sergey Lagodinsky, Schattenberichterstatter der Grünen-Fraktion im LIBE-Ausschuss, befürwortet einen solchen Schritt: Er sieht bei ChatGTP und Sprachmodellen Risiken für die Grundrechte, "die wir adressieren müssen".

Lagodinsky denkt dabei an Angriffe wie "Prompt Injection", über die sich der Eingabepunkt für solche Chatbots manipulieren und potenziell private Informationen über die Nutzer herausholen ließen. Microsoft plane, ChatGPT etwa über die Suchmaschine Bing als eine Art Co-Piloten einzusetzen, der dann die ganzen von einem Anwender besuchten Seiten durchforsten könnte. Dies könnte unter anderem zu Betrugsfällen führen. Der Grüne plädiert daher dafür, dass sich die Abgeordneten die Zeit nehmen, "auch über diese Technologie zu sprechen". Dazu stehe auch noch ein Vorschlag der Berichterstatter aus.

Sprachroboter wie ChatGPT "können moralische Fragen nicht beantworten", gibt Cornelia Ernst, Schattenberichterstatterin der Linksfraktion, zu bedenken. Es gelte daher abzuschätzen, "was das für die Grundrechte heißt" und solche Systeme mit auf die Tagesordnung zu setzen. Lieber länger diskutieren und etwas Vernünftiges erzielen, als nur Kauderwelsch für den Europäischen Gerichtshof zu produzieren, lautet ihr Motto.

"ChatGPT müssen wir nicht regulieren", hält Svenja Hahn (FDP) als Schattenberichterstatterin im ebenfalls federführenden Ausschuss für Binnenmarkt und Verbraucherschutz dagegen. Sollten allgemeine KI-Modelle und ihre Anwendungen als Hochrisiko eingestuft werden, würde dies die Innovation in Europa abwürgen. Der Gesetzgeber dürfe "nicht jeder einzelnen technischen Entwicklung nachlaufen", sondern müsse einen schlanken Grundsatzrahmen im Hochrisikobereich festlegen. "Lieber gar kein Gesetz als ein schlechtes", ist ihre Devise. Die EU dürfe den Zukunftssektor auf jeden Fall "nicht überregulieren".

"Nicht alles, was überrascht, ist auch Hochrisiko", positioniert sich Voss nahe an der Liberalen. Die teils "wunderschönen" Ergebnisse eines Textgenerators wie ChatGPT spiegelten wider, "wie wir uns im Internet verhalten". Beim Umgang damit seien Medienkompetenz und gesunder Menschenverstand gefragt: Der Einzelne müsse die Resultate selbst evaluieren. Der Christdemokrat weiß ad hoc nicht, "wo die Bedrohung für unser Leib und Leben liegt". Es bringe nichts, "unsere Ängste" zu regulieren. Man könnte aber darüber nachdenken, ob etwa auch Kinder an die Technik herankommen sollten und wie akkurat die Qualität der Datensätze sei.

Auch insgesamt gehen die Meinungen noch deutlich auseinander, wie weit die Ausschüsse an einer beschlussreifen Vorlage für die Verhandlungsposition des Parlaments mit dem EU-Rat sind, der seinen Kurs im Dezember bereits abgesteckt hat. Für Hahn ist bislang gar nicht ausgemacht, "in welche Richtung der Gesetzesrahmen geht". Dies fange schon bei einer "vernünftigen Definition" von KI an, die "international anschlussfähig ist" und sich etwa an die OECD anpasse.

Grundsätzlich einig sind sich Liberale, Grüne und Linke sowie Teile der Sozialdemokraten, dass die EU voraussagende Polizeiarbeit ("Predictive Policing"), Social Scoring und biometrische Massenüberwachung im öffentlichen Raum etwa per automatisierter Gesichtserkennung verbieten sollte. Auch bei der Emotions- und Verhaltenserkennung, die teilweise auf nicht-wissenschaftlichen Schlussfolgerungen beruhe, "müssen wir die rote Linie ziehen", fordert Lagodinsky. Bei sehr vielen Themen seien die Gespräche gut vorangekommen, auch wenn sich das Ziel noch nicht in Sichtweite befinde.

"Hochrisiko ist offen, da werden die Schlachten gerade ausgeführt", weiß Ernst. Die Linke drängt darauf, KI-Systeme im Bereich der Grenz- und Migrationskontrolle ebenfalls zu untersagen, um nicht noch mehr illegale Pushbacks zu befördern. Auch Lügendetektoren und algorithmische Schranken für den Zugang zu öffentlichen Diensten "gehören einfach mal verboten". Voss stört dagegen, dass viele bei Gesichtserkennung und Predictive Policing "alles über einen Kamm" scherten. Auch da gebe es Techniken, um die Privatsphäre zu schützen. Der Konservative ist daher für mehr Differenzierung.

(fds)