OpenAI ist jetzt nicht mehr so "open"

OpenAI sagt, es wäre zu riskant, GPT-4 zu veröffentlichen. Kann man dem Argument trauen? Schließlich sichert dieses Vorgehen auch satte Gewinne. Ein Kommentar.

In Pocket speichern vorlesen Druckansicht 150 Kommentare lesen
GPT-4 auf einem digitalen Schild

(Bild: Urban Images/Shutterstock.com)

Lesezeit: 4 Min.

GPT-2, erinnert sich da noch jemand dran? 2019 weigerte sich OpenAI monatelang, das Sprachmodell zu veröffentlichen, weil es möglicherweise zu gefährlich sei. Kritiker warfen OpenAI daraufhin vor, die Angst vor einer übermächtigen KI als Marketing-Instrument zu missbrauchen. Jetzt gibt es GPT-4, vor dessen Fähigkeiten Sam Altman (OpenAI CEO) sich in einem Interview öffentlichkeitswirksam ein bisschen gruselt.

Zum Glück für die Öffentlichkeit gehört OpenAI ja erklärtermaßen zu den Guten. Und die Guten bewachen den Zugang zu der Technologie, um einen möglichen Missbrauch zu verhindern. Aus OpenAI wird damit ClosedAI. Das sieht zwar in der Öffentlichkeit nicht so schön aus, ist aber in der Logik dieser Erzählung absolut notwendig.

Ein Kommentar von Wolfgang Stieler

Nach dem Studium der Physik wechselte Wolfgang Stieler 1998 zum Journalismus. Bis 2005 arbeitete er bei der c't, um dann als Redakteur der Technology Review zu wirken. Dort betreut er ein breites Themenspektrum von Künstlicher Intelligenz und Robotik über Netzpolitik bis zu Fragen der künftigen Energieversorgung.

Eine ganz ähnliche Argumentation machte sich auch Meta bei der Veröffentlichung seines großen Sprachmodells Llama zu eigen: Zugang zu dem Modell sollten zunächst nur handverlesene Forscher bekommen ("Access to the model will be granted on a case-by-case basis").

Dass es bei dieser Zugriffskontrolle nicht allein darum geht, die Gesellschaft zu schützen, ist eigentlich nicht weiter verwunderlich. Erstaunlich ist eigentlich nur, dass das auch offen gesagt wird. Sam Altman selbst verwies in diversen Interviews auf das "kompetitive Umfeld", das OpenAI nicht erlauben würde, technische Einzelheiten zu dem neuen Sprachmodell zu veröffentlichen – nicht einmal die Zahl der Parameter, geschweige denn technische Details zu den Trainingsdaten, denn "auch Daten sind heutzutage Technologie".

Allerdings muss man als Torwächter auch in der Lage sein, den Zugriff auf die Technologie tatsächlich zu kontrollieren. Es genügt ein kleines Loch im Zaun, und der Torwächter hat keine Funktion mehr. Ein solches "Loch im Zaun" kann die Open-Source-Implementierung der Technologie sein, die man eigentlich beschützen will. So ist es OpenAI gegangen mit Dall-E vs. Stable Diffusion. Und Meta musste nicht nur mit ansehen, wie das Llama-Sprachmodell als Torrent zum Download bereitgestellt wurde, sondern auch, dass Forschende aus Stanford daraus mit Hilfe von GPT-3 das sehr viel kleinere, kompaktere Sprachmodell Alpaca gemacht haben, das mit sieben Milliarden Parametern in Standardtests ähnlich gut abschneidet wie GPT-3 mit seinen 175 Milliarden Parametern. Und das alles für nur rund 600 Dollar Trainingskosten. Fun Fact: Obwohl die Stanford-Forscher das Modell erst veröffentlichen wollten, wenn Meta seine Zustimmung gegeben hat, sind auch diese Modelldaten längst im Internet im Umlauf.

Was also tun? Einerseits scheint das wirtschaftliche Interesse der Unternehmen dem öffentlichen Interesse nach Transparenz und Sicherheit entgegenzustehen. Andererseits haben sowohl Unternehmen als auch die Öffentlichkeit ein gemeinsames Interesse daran, dass diese Technologie nicht missbraucht wird. Und ich bin mir ziemlich sicher, dass es bei den OpenAIs dieser Welt interne Prüfprozesse gibt, die genau dazu da sind, dieses Missbrauchsrisiko systematisch zu untersuchen. Mit standardisierten Verfahren und einer ausführlichen Dokumentation.

Wieso hören wir aber davon nur so wenig? Vielleicht weil es nicht in das Narrativ passt, das OpenAI aufgebaut hat – der unerschrockene Gatekeeper und Schöpfer einer "guten" KI, die dem "Wohl der gesamten Menschheit dient"? Oder weil darüber zu sprechen bedeuten würde, anzuerkennen, dass Ideen staatlicher Regulierung, wie zum Beispiel im Entwurf für den EU AI Act, im Grunde genommen durchaus vernünftig sind.

"Es wäre wünschenswert, wenn unabhängige, vertrauenswürdige Instanzen stärker in den Prozess der Risikobewertung und Entscheidungsfindung eingebunden würden, um für mehr Transparenz und Vertrauen zu sorgen. So könnten Unternehmen wie OpenAI ihre gesellschaftliche Verantwortung wahrnehmen, ohne dass die Öffentlichkeit das Gefühl hat, dass Informationen vorenthalten oder als Marketinginstrument genutzt werden.“ Sagt zumindest GPT-4. Und das muss es ja wissen.

Siehe auch:

(wst)