Emily M. Bender: OpenAI und der "unbegründete Hype"

Das Drama um OpenAI beschäftigte über Tage die Medien. Nun kehrt CEO Sam Altman zurück – und KI-Ethikerin Emily M. Bender wundert sich über den Hype.

In Pocket speichern vorlesen Druckansicht 127 Kommentare lesen
Openai,Ceo,Sam,Altman,Attends,The,Artificial,Intelligence(ai),Revolution,Forum, SamAltman

OpenAI-CEO Sam Altman.

(Bild: DIA TV/Shutterstock.com)

Lesezeit: 6 Min.

Emily M. Bender ist Linguistikprofessorin an der University of Washington in Seattle. Sie beschäftigt sich seit vielen Jahren mit Künstlicher Intelligenz und Sprachmodellen. Bekannt wurde sie vor allem als streitbare KI-Ethikerin. Im Interview mit MIT Technology Review beurteilt sie die jüngsten Irrungen und Wirrungen von OpenAI und dessen (Wieder-)CEO Sam Altman – und plädiert für besseres wissenschaftliches Arbeiten.

MIT Technology Review: Frau Bender, wir haben seltsame Tage für OpenAI hinter uns, das derzeit wohl am stärksten beobachtete KI-Unternehmen der Welt. CEO Sam Altman wurde aus noch immer weitgehend unbekannten Gründen gefeuert, bevor er triumphierend zurückkehrte. Was ist Ihr Bauchgefühl bei der Sache?

Emily M. Bender: Ehrlich gesagt scheint mir das eine Kombination aus Unreife und Aufmerksamkeitssucht zu sein. Ein gut geführtes Unternehmen hätte nicht so einen öffentlichen Nervenzusammenbruch gehabt. Gleichzeitig haben die Ereignisse eine ganz neue Runde im medialen KI-Hype angekurbelt.

Es gibt nicht wenige Beobachter, die meinen, das OpenAI eine Schlüsselposition für die Zukunft unserer kollektiven Gesellschaft haben könnte. Wie kann es da zu einem solchen Chaos kommen?

Zunächst einmal bezweifele ich, dass OpenAI diese Position einnehmen wird. Die Firma behauptet ja, eine sichere Künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI) "zum Nutzen der gesamten Menschheit" zu entwickeln, während sie uns gleichzeitig davor warnt, dass eine solche AGI uns alle umbringen könnte. Das ist doch unbegründeter Hype.

Das soll nicht heißen, dass es nicht auch Dinge gibt, über die man sich Sorgen machen muss. Ich bin beispielsweise besorgt über Menschen, die Anwendungen auf der Grundlage synthetischer Textexpressionsmaschinen, wie ich das nennen würde, entwickeln und sie dann als Ersatz für wichtige soziale Funktionen verkaufen, sei es nun Bildung, Gesundheitsfürsorge, Journalismus, Psychotherapie oder Rechtsberatung. Diese Systeme reproduzieren auf viele Arten Vorurteile und könnten dazu benutzt werden, Diskriminierung weiter zu verfestigen.

Ich bin besorgt über die Normalisierung eines plumpen Datendiebstahls, um die riesigen Informationsmengen zu erzeugen, die zum Trainieren der OpenAI-Systeme benötigt werden. Die Arbeitspraktiken im Bereich der Bereinigung des KI-Outputs nach dem Training sind ausbeuterisch. Es gibt schwerwiegende Umweltauswirkungen im Bereich Energie, Wasser oder Abbau seltener Erden, die mit der Schaffung dieser Systeme einhergehen. Und synthetische Medien verschmutzen unser Informationsökosystem. Angesichts der Tatsache, wie sich OpenAI bislang in Bezug auf all diese Fragen verhält, sehe ich keinen Grund zu der Annahme, dass das jüngste Chaos es noch schlimmer machen wird.

Das Board von OpenAI, das Altman zunächst entlassen hatte, soll das angeblich getan haben, weil der die Gefahren der KI unterschätzt hat. Denken Sie, dass das so war?

Dazu liegen mir keine Informationen vor, die über das hinausgehen, was in der Presse berichtet wurde. Allerdings möchte ich daran erinnern, dass das auch diese KI-Doomer Teil des KI-Hypes sind: Die Vorstellung, dass Maschinen, die synthetischen Text produzieren, Vorboten einer KI sind, die kurz davor steht, ein Bewusstsein zu entwickeln und die Menschheit zu zerstören, ist unwissenschaftlicher Unsinn. Damit wird suggeriert, die Software sei enorm mächtig und sogar magisch. Denn wenn eine solche KI die Weltherrschaft übernehmen kann, muss sie etwas ganz Erstaunliches sein.

Sie selbst sind also kein KI-Doomer, meinen aber, dass KI unsere Gesellschaft auf andere Weise gefährden könnte – insbesondere aus sozialen Gründen. Könnten die Doomer nicht dabei helfen, diese Szenarien aufzuhalten?

Ich kann nicht erkennen, dass die KI-Doomer-Fraktion Schritte unternimmt, die solche Schäden, die längst dokumentiert sind, tatsächlich abmildern würden. Vielmehr scheinen sie darauf bedacht zu sein, die Aufmerksamkeit der politischen Entscheidungsträger, die ja ohnehin eine knappe Ressource ist, auf Fantasieszenarien zu lenken.

KI-Expertin Emily M. Bender.

(Bild: Corinne Thrash, University of Washington College of Arts & Sciences)

Sie haben wiederholt kritisiert, dass viele KI-Freunde mit pseudowissenschaftlichen Methoden arbeiten. Unter anderem haben Sie die Verwendung von Preprint-Papern kritisiert, die "noch nicht einmal einer Peer-Review unterzogen wurden". Wollen Sie damit sagen, dass Sie Preprint-Server wie arXiv generell für sinnlos halten?

Ein offener Zugang zu wissenschaftlichen Veröffentlichungen ist von großer Bedeutung. Ursprünglich war arXiv dafür gedacht, dass die Forscher fertige Arbeiten mit anderen teilen konnten, entweder während des Peer-Review-Verfahrens oder während des langen Prozesses zwischen der Annahme in einem Peer-Review-Verfahren und der Veröffentlichung. arXiv war außerdem ein hilfreicher Ort, um Paper zu veröffentlichen, die zuvor in nicht-öffentlichen Foren publiziert wurden.

Doch die Art und Weise, wie arXiv heutzutage in der Informatik – insbesondere im Bereich des Maschinellen Lernens – genutzt wird, ähnelt all dem nicht mehr. Die Leute posten Dinge auf arXiv, Pflöcke einzuschlagen, damit also für sich zu beanspruchen, Erstentdecker einer Methode oder eines Forschungsergebnisses zu sein. Peer-Reviews sind da dann oft egal. Im Fachbereich glaubt man mittlerweile, dass Zitate dafür ein guter Ersatz sind. Das ist falsch: Wissenschaftler, die ein strenges Peer-Review vornehmen, lesen die Arbeiten kritisch und überprüfen sie auf ihre Gültigkeit. Zitate hingegen werden oft von Leuten angeführt, die nach Papern suchen, die eine Behauptung unterstützen, die sie selbst aufgestellt haben.

Was zeichnet Ihrer Meinung nach gute wissenschaftliche Arbeit aus?

Wissenschaft sollte offen, inklusiv und langsam sein: Forscher sollten die Zeit haben, sich intensiv mit früheren Untersuchungen und dem sozialen Kontext ihrer Arbeit auseinanderzusetzen. Die daraus folgenden Ergebnisse sollten dann einem strengen Peer-Review unterzogen und offen für alle zugänglich gemacht werden.

Das Interview wurde per E-Mail geführt und aus Gründen der Länge und Klarheit editiert.

(bsc)