Verlässlichkeit: Wirtschaftsforscher beklagen Marktversagen bei generativer KI

ZEW-Ökonomen fordern ein EU-Programm für die Entwicklung sicherer generativer KI wie Chatbots. Derzeit wälzten OpenAI & Co. die gesellschaftlichen Risiken ab.

vorlesen Druckansicht 16 Kommentare lesen

Homepage der Video-KI Sora von Open AI.

(Bild: Screenshot)

Lesezeit: 2 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Politiker und Experten fordern allenthalben die Entwicklung "vertrauenswürdiger" Künstlicher Intelligenz. Doch Appelle und Verordnungen reichen laut Forschern des Leibniz-Zentrums für Europäische Wirtschaftsforschung (ZEW) nicht, um die derzeit besonders populären Chatbots und Bildgeneratoren von OpenAI, Google & Co. auf diese Spur zu bringen.

"Bei generativer KI beobachten wir ein Marktversagen", moniert Dominik Rehse, Leiter einer ZEW-Forschungsgruppe für das Design digitaler Märkte. Entwickler könnten aktuell "erhebliche Erträge durch leistungsfähigere Modelle generieren". Die Kosten für deren gesellschaftliche Risiken trügen sie aber nicht.

Um dieses Missverhältnis auszugleichen, schlagen die ZEW-Ökonomen in einem Politikbrief ein neues EU-Förderprogramm vor. Es soll explizit Anreize zur Entwicklung sicherer generativer KI schaffen.

"Die Sicherheit dieser Systeme stellt eine sozial erwünschte Innovation dar, die einzelne Entwicklerunternehmen bislang nicht ausreichend bereitstellen", begründet Rehse die Initiative. Ein ähnliches Problem existiere etwa bei der Produktion mancher Impfstoffe, "bei denen solche Förderprogramme bereits erfolgreich angewendet wurden".

Die Idee des Teams: Interessierte Entwickler nehmen an einem von der EU ausgeschriebenen und finanzierten Wettbewerb teil. In Etappen sollen Systeme vorangetrieben werden, die bestimmte Sicherheits- und weitere Leistungskriterien erfüllen. Wird ein Meilenstein erreicht, erhalten die entsprechenden Entwickler vorher festgelegte Geldbeträge.

So werden den Forschern zufolge die Nachfrageunsicherheiten auf Unternehmensseite reduziert: Die Branche wisse von Anfang an, dass sich der Aufwand für die Innovation auch lohne. Zugleich gebe die EU keine konkreten Technologien vor, sondern bleibe offen und mache wenige technische Vorgaben.

Videos by heise

Nötig sind der Gruppe zufolge aber "sorgsam definierte Sicherheits- und andere Leistungskennzahlen". Deren Robustheit dürfte sich vor allem durch den Einsatz von nachvollziehbaren Tests ergeben, bei denen die Öffentlichkeit auch KI-Algorithmen zu Fehlverhalten oder besonders guter Leistung auf den Zahn fühlen können müsste.

Mit solchen Anreizmechanismen habe die EU die Chance, "gezielter als bisher Innovationen zu entwickeln", betont Mitautor Sebastian Valet. "Sie könnte damit auch eine Nische im Markt für generative KI besetzen, in dem sie bislang nur eine geringfügige Rolle spielt."

(vbr)