Deep Dive: Wie der EU eine schlaue KI-Regulierung gelingen kann

Der Kurs des EU-Parlaments zur KI-Regulierung steht. Zu Gast ist daher die Juristin Sandra Wachter, die in Oxford zu rechtlichen Auswirkungen von KI forscht.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 2 Min.

Seit Mitte Juni steht der Kurs des EU-Parlaments für eine Verordnung zur Regulierung von Künstlicher Intelligenz (KI), dem sogenannten AI Act. Besonders die Einstufung von neuen Diensten wie ChatGPT von OpenAI waren gegenüber dem initialen Entwurf der europäischen Kommission mit Spannung erwartet worden.

"Die Grundidee damals war, dass man besonders die Klassifikationssysteme reguliert", sagt Sandra Wachter vom Oxford Internet Institute. Denn diese Systeme würden oft als Hilfe zur Entscheidungsfindung eingesetzt. "Soll ich diesen Menschen einstellen, soll ich dem einen Darlehen geben, soll ich den zur Uni zulassen? Dann kam ChatGPT und dann war die Welt eine ganz andere."

Die Juristin Sandra Wachter beschäftigt sich seit vielen Jahren mit KI-Ethik, erklärbarer KI und der Frage, wie man Künstliche Intelligenz regulieren sollte. In der neuen Podcast-Folge diskutiert sie im Gespräch mit TR-Redakteur Wolfgang Stieler unter anderem das Bias-Problem von großen KI-Modellen und welche Unklarheiten der Entwurf des AI Act noch enthält.

Dass die Einbeziehung von generativer KI in das Gesetz nicht dazu geführt hat, dass man den risikobasierten Anlass aufgegeben habe, findet Wachter gut. Auch, dass ChatGPT und Co. nicht von vornherein als Hochrisiko-Technologie eingestuft, aber streng reguliert werden sollen. Um Transparenz zu gewährleisten, sollen Trainingsdaten weitgehend offen liegen. So sollen auch die Ursachen für mögliche Verzerrungen, also Bias oder Vorurteile, deutlich und korrigierbar werden.

MIT Technology Review Podcast

Hier finden Sie die Übersicht unserer drei Podcast-Formate: der wöchentliche News-Podcast "Weekly" sowie die monatlichen Podcasts "Unscripted" und "Deep Dive".

Kritisch sieht sie hingegen, dass die Hersteller solcher Systeme sich in einem "Self Assessment" selbst bescheinigen, dass ihre Produkte zum AI Act konform sind. Mehr noch, es sei beispielsweise so, "dass man sich Mühe geben oder 'Best Effort' hineingeben soll, um sicherzugehen, dass man sich mit dem Bias auseinandersetzt", kritisiert Wachter. Zudem gibt sie einen Einblick, was das Gesetz für Benutzer und Wirtschaft bedeutet und wie viel Einfluss von Lobbyisten sich in der Verordnung niederschlägt.

Mehr dazu in der ganzen Folge – als Audio-Stream (RSS-Feed):

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(wst)