OpenAI: Erfolgreiches Lobbying gegen strikte KI-Regulierung in der EU

Neue Dienste wie ChatGPT stuft das EU-Parlament nicht von vornherein als Hochrisiko-Technologie ein. OpenAI machte sich dafür in einem Lobby-Papier stark.

In Pocket speichern vorlesen Druckansicht 19 Kommentare lesen
Germany,-,January,24,2023:,Openai,Logo,On,The,Phone,And

(Bild: Camilo Concha / Shutterstock.com)

Lesezeit: 3 Min.

Der ChatGPT-Betreiber OpenAI hat sich dafür eingesetzt, dass wesentliche Teile der geplanten EU-Verordnung für Künstliche Intelligenz (KI) abgeschwächt und die Auflagen für das US-Unternehmen reduziert werden. Dies geht aus einem Lobby-Papier des Microsoft-Partners vom September 2022 hervor, den das US-Magazin Time auf Basis einer Informationsfreiheitsanfrage erhalten und veröffentlicht hat. In mehreren Fällen schlug OpenAI demnach einschlägige Änderungen vor, die das EU-Parlament vorige Woche in seiner Position zu der weltweit beobachteten Gesetzesinitiative übernommen hat.

Das im Herbst aktuelle große Sprachmodell GPT-3 "ist an sich kein Hochrisiko-System", behauptet OpenAI in dem siebenseitigen, an EU-Politiker gerichteten Dokument. Es verfüge allenfalls "über Fähigkeiten, die möglicherweise in Anwendungsfällen mit hohem Risiko eingesetzt werden können". Die Firma zeigte sich besorgt, dass die vorgeschlagene Formulierung rund um KI-Allzwecksysteme unbeabsichtigt dazu führen könnte, alle Modelle von OpenAI standardmäßig als hochriskant einzustufen. Das Unternehmen plädierte auch für Optionen, bestimmte Anwendungen generativer KI wie ChatGPT in Bildung und Beschäftigung zu ermöglichen. Diese Sektoren sah die EU-Kommission in ihrem ursprünglichen Gesetzesentwurf als pauschale Hochrisiko-Anwendungsfälle für KI an.

Ende März beteuerten Vertreter von OpenAI dem Bericht zufolge auch bei einem Treffen mit EU-Gesetzgebern und Regulierern, dass die von dem Chatbot ausgehenden Gefahren überschaubar seien. Anweisungen an die KI könnten so angepasst werden, "dass sie beispielsweise die Weitergabe von Informationen über die Herstellung gefährlicher Stoffe verweigert". Findige Nutzer und Forscher haben dagegen wiederholt gezeigt, dass sich solche einprogrammierten Sperren durch sogenannte Prompt Injections mit speziellen Fragestellungen einfach aushebeln lassen. Trotzdem gab sich OpenAI zuversichtlich, "dass unser Ansatz zur Minderung von Risiken, die sich aus der Allzweckbeschaffenheit unserer Systeme ergeben, branchenführend ist".

Laut dem von den EU-Abgeordneten vereinbarten Kurs, auf dessen Basis die Verhandlungsführer der Volksvertreter jetzt einen finalen Kompromiss mit dem Ministerrat und der Kommission anstreben, werden ChatGPT & Co. nicht von vornherein als Hochrisiko-Technologie eingestuft. Betreiber von KI-Basismodellen, die auf einer umfangreichen Menge nichtkategorisierter Daten im großen Stil trainiert wurden und auf eine allgemeine Ausgabe ausgelegt sind, müssen diese aber auf vorhersehbare Risiken für Gesundheit, Sicherheit, Grundrechte, Umwelt, Demokratie und Rechtsstaatlichkeit hin prüfen und diese gegebenenfalls abmildern. Fallen sie in die Kategorie der generativen KI wie ChatGPT, sollen sie etwa weitere Transparenzauflagen erfüllen und angemessene Sicherheitsvorkehrungen gegen die Erzeugung von Inhalten treffen, die gegen EU-Recht verstoßen beziehungsweise Desinformation und "Fake News" verbreiten.

"Sie haben bekommen, was sie verlangten", erklärt Sarah Chander, Politikberaterin bei der Bürgerrechtsorganisation European Digital Rights (EDRi), gegenüber Time. Das Lobby-Papier veranschauliche, dass OpenAI – wie viele Big-Tech-Unternehmen – das Argument des öffentlichen Nutzens von KI missbraucht habe, um das eigene "finanzielle Interesse an einer Abschwächung der Regulierung zu verschleiern". Der ChatGPT-Betreiber sage im Grunde: "Vertrauen Sie uns, dass wir uns selbst regulieren", ergänzt Daniel Leufer von Access Now. OpenAI-Chef Sam Altman hatte vor der Abstimmung im Plenum wiederholt prinzipiell nach Vorgaben für die Technik gerufen. Andererseits drohte er, den Dienst in der EU einzustellen. Davon distanzierte er sich aber rasch wieder.

(mki)