EU-Verhaltenskodex: Strenge Sicherheits- und Copyright-Regeln für Allzweck-KI​

Die EU-Kommission hat einen Entwurf des Verhaltenskodex rund um KI für allgemeine Zwecke veröffentlicht. Es geht etwa ums Urheberrecht und systemische Risiken.​

In Pocket speichern vorlesen Druckansicht

(Bild: incrediblephoto / Shutterstock.com)

Lesezeit: 3 Min.

Anbieter fortgeschrittener Modelle für Künstliche Intelligenz (KI) mit allgemeinen Einsatzzwecken, die systemische Risiken darstellen können, müssen künftig vor dem Start auf dem europäischen Markt einen umfassenden "Sicherheitsrahmen" vorlegen. Zudem sollen sie sich verpflichten, die europäischen Urheberrechtsvorschriften vollumfänglich einzuhalten. Dies sieht ein erster Entwurf für einen Verhaltenskodex für Betreiber wie OpenAI, Google oder Meta vor, der die Umsetzung der im März vom EU-Parlament beschlossenen KI-Verordnung erleichtern soll. Diese enthält für Anbieter großer KI-Basismodelle nur recht vage Vorgaben. So müssen sie etwa eine Zusammenfassung der verwendeten Trainingsdaten öffentlich machen. Bei hohem Risiko ist eine Dokumentation und eine Art Gebrauchsanweisung vorzulegen.

Das von der EU-Kommission am Donnerstag veröffentlichte 36-seitige Papier haben unabhängige, vom KI-Büro der EU berufene Experten wie die KI-Koryphäe Yoshua Bengio im Rahmen von Workshops mit mehreren Hunderten Teilnehmern ausgearbeitet. Aus Deutschland waren etwa der Frankfurter Informationsrechtler Alexander Peukert und der Systemdesigner Alexander Zacherl beteiligt. Der Kodex ist als Selbstregulierung angelegt und gilt solange, bis sich Standards etabliert haben. Die Unterzeichner sollen sich etwa verpflichten, "eine aussagekräftige, unabhängige Expertenbewertung der Risiken" von erfassten Allzweck-KI-Modellen "während ihres gesamten Lebenszyklus zu ermöglichen" und dabei ausgemachte Gefahren abzumildern.

Zugleich müssten die Anbieter eine eigene Taxonomie systemischer Risiken vorlegen. Dabei sollen sie insbesondere Cyberangriffe, chemische, biologische, radiologische und nukleare Gefahren oder einen Kontrollverlust im Auge behalten. Ein weiterer Fokus liegt auf dem Verhindern "unvorhersehbarer Entwicklungen", von Manipulationen und Desinformation sowie der "großflächigen illegale Diskriminierung von Einzelpersonen, Gemeinschaften oder Gesellschaften". KI-Modelle könnten "weitreichende negative Auswirkungen" etwa auf die öffentliche Gesundheit, Sicherheit, demokratische Prozesse, kritische Infrastrukturen, Grundrechte, Umweltressourcen, menschliches Handeln oder die Gesellschaft als Ganzes haben, heißt es weiter. Diesen müsse vorgebaut werden.

Die Unterzeichner sollen ferner anerkennen, dass für die Verwendung urheberrechtlich geschützter Inhalte die Genehmigung der Rechteinhaber erforderlich ist, "sofern keine entsprechenden Ausnahmen und Beschränkungen des Urheberrechts gelten". Sie müssten eine angemessene Prüfung von Copyright-Ansprüchen vornehmen, "bevor sie mit Dritten einen Vertrag über die Verwendung von Datensätzen für die Entwicklung eines allgemeinen KI-Modells abschließen". Bei Inanspruchnahme der im EU-Urheberrecht verbrieften Klausel für Text- und Data-Mining sollen sie zusichern, "dass sie rechtmäßigen Zugang zu urheberrechtlich geschützten Inhalten haben" und potenziell, beispielsweise in der Datei robots.txt geäußerte Rechtevorbehalte einzuhalten. "Kein Crawling von Piraterie-Webseiten", lautet ein weiterer Anspruch. Übergreifend soll eine Verpflichtung zur größtmöglichen Transparenz gelten.

Das Dokument, das noch diverse offene Fragen umreißt, soll nun in der nächsten Woche in den vier vom KI-Büro eingerichteten Arbeitsgruppen und am 22. November auf einer Plenarsitzung weiter diskutiert werden. Interessenvertreter, Abgesandte der Mitgliedstaaten sowie europäische und internationale Beobachter können zudem bis 28. November im Rahmen einer Konsultation Kommentare abgeben. Die finale Version soll voraussichtlich im Mai 2025 vorgestellt werden und spätestens im Sommer greifen. Beobachter kritisieren, dass vor allem der Zeitplan für dieses Jahr zu ambitioniert sei und eine effektive Beteiligung kaum mehr ermögliche. Die Bundesregierung warb schon voriges Jahr dafür, dass für Basismodelle eine verpflichtende Selbstregulierung möglichst in Form verbindlicher Verhaltenskodizes und Transparenzvorgaben ausreiche.

(mki)