Internet Governance Forum: Risikobasierte Regulierung reicht allein nicht für KI

Das 18. Internet Governance Forum der UN wird zum Schaulaufen für Verheißungen, Gefahren und Gesetze für KI.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Ai(artificial,Intelligence),Concept. Bard, ChatGPT, KI, Chatbot

(Bild: metamorworks/Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Monika Ermert
Inhaltsverzeichnis

Das Internet Governance Forum (IGF) der UN könnte im 18. Jahr seines Bestehens als "AIGF" bezeichnet werden – als Governance Forum für Künstliche Intelligenz, witzeln Teilnehmer der Konferenz. Rund 70 Panels widmen sich diese Woche in Kyoto dem Thema KI. Weil sich die Technologie so rasant entwickelt, ist auch der Wettbewerb um die besten Governance-Konzepte angelaufen. Verschiedene Organisationen ringen zugleich um einen internationalen Grundkonsens.

Bis Ende des Jahres werde der G7 "Hiroshima-Prozess" gemeinsame Richtlinien für alle KI-Akteure verabschieden, versicherte der japanische Premierminister Fumio Kishida in seiner Keynote. Kishida verglich die Bedeutung von generativer KI und Large Language Models (LLM) mit der Entwicklung des Internets. Förderung und der Regulierung von KI müssten daher dringend in einen Ausgleich gebracht werden, sagte er.

UN Generalsekretär António Guterres versprach ebenfalls einen Aufschlag auf internationaler Ebene. Guterres, der seit längerem vor den Folgen voll automatisierter Waffensysteme – sogenannter Killer Robots – warnt, will eine hochrangige UN Expertengruppe einsetzen, die ebenfalls bis Ende des Jahres Empfehlungen zu generativer KI vorlegen soll.

Nationale und regionale Regulierungsanstrengungen sind auf vielen Ebenen und in vielen Ländern im Gang. In einer Diskussionsrunde der Yale Law School und der Georgetown Institute for Technology berichteten Experten von der regulatorischen Aufholjagd. IGF-Gastgeber Japan hat seit 2016 verschiedene Richtlinien und Prinzipien vorgelegt, erst für Forschung und Entwicklung, etwas später für die Nutzung von generativer KI.

Die japanische Juristin Kyoko Yoshinaga, die an den Prinzipien teils selbst mitgearbeitet hat, sagte, prominente japanische Firmen hätten sich interne Richtlinien auf Basis der japanischen Soft-Law-Bestimmungen gegeben. Im Bereich sektorspezifischer Regulierung würden jetzt allerdings nach und nach Gesetze vorgelegt, etwa mit der Novellierung des Gesetzes zu Transparenz und Fairness digitaler Plattformen und beim Einsatz von KI bei Therapieentscheidungen.

Auch Lateinamerika steht an der Schwelle zu verbindlichen Gesetzen. Argentinien, Brasilien, Kolumbien, Peru und Mexiko arbeiten an eigenen Normen, berichtete Carlos Affonso Souza, Director des Instituto de Tecnologia and Sociedade in Rio. In afrikanischen Ländern stehe man noch am Anfang der Entwicklung, obwohl drei Länder Mauritius, Ägypten und Kenia bereits nationale KI-Strategien hätten, sagte Tomiwa Ilori vom Centre for Human Rights in Pretoria.

Alle kleinen Länder stehen vor dem Dilemma, dass zu rasche und zu weitgehende Regulierung Player abschrecken und eigene Innovation behindern kann, erklärte Simon Chesterman von der Universität Singapur. "Einen großen Markt wie die EU verlässt ein Player wie Meta wohl zumindest nicht gänzlich." Bei kleineren Märkten sehe das aber anders aus. Die Wissenschaftler sehen angesichts des Wettbewerbs um die besten Konzepte spannenden Zeiten auf sich zukommen.

Problematisch wäre aus Sicht von Souza und Illori schlichte Übernahmen von "Governance Technologie" aus dem Globalen Norden. Souza mahnte, der EU-AI Act werde in den 27 europäischen Mitgliedsstaaten von weiteren Gesetzen wie der Datenschutzgrundverordnung, dem Digital Markets Act und dem Digital Services Act flankiert. Ohne Anpassungen funktionierten die legislativen Anleihen oft nicht.

Die Grundidee in Europa – und auch in der geplanten US-AI Bill of Rights – basiert im Wesentlichen auf dem Konzept des Risikomanagements. Im EU-AI Act wird Firmen auferlegt, das Risiko ihrer Produkte und Dienste abzuschätzen. "Lachhaft" nannte das der US-Wissenschaftler Milton Mueller. Die Gründungsdirektorin des Berliner Humboldt Institut für Internet und Gesellschaft, Jeanette Hofmann, konterte, Risikomanagement sei eine gut bewährte Lösung. Zudem könnten Wissenschaftler wegen des für sich gesetzlich abgesicherten Datenzugangs die Umsetzung mit beobachten.

Geht es nach Courtney Radsch, Direktorin des Center for Journalism and Liberty, reicht Risikomanagement und die in insgesamt 20 US-Bundesstaaten verabschiedeten oder vorbereiteten eigenen Normen und die geplante AI Bill of Rights nicht aus. Um die Kontrolle über die immer mächtigere Technologie nicht völlig aus der Hand zu geben, muss vor allem die Monopolaufsicht besser funktionieren. Der vertikalen Integration von KI mit Clouddiensten und mehr müsse entgegengewirkt werden, bevor auch KI-Anbieter "to big to fail" seien, warnte sie.

Auch das IGF-D, die nationale deutsche IGF, hat gerade eben ihre Empfehlungen veröffentlicht und mahnt darin zum Thema KI: "Wir müssen aufpassen, dass der AI Act kein Papiertiger wird."

(bme)