Fake News, zu 50 Prozent perfekt

Die Organisation OpenAI hat weitere Teile eines Modells veröffentlicht, das täuschend echte Nachrichten beliebigen Inhalts schreiben kann. Forscher sind sich uneins, wie mit solchen heiklen Innovationen umzugehen ist.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Fake News, zu 50 Prozent perfekt

(Bild: Photo by Elijah O'Donnell on Unsplash)

Lesezeit: 4 Min.
Von
  • Karen Hao

In diesem Februar hat die Organisation OpenAI von sich reden gemacht, indem sie ein Sprachmodell produzierte, das so gut im Generieren von Fake News ist, dass sie auf eine Veröffentlichung verzichtete. Manche in der KI-Forschungscommunity sahen darin eine vernünftige Vorsichtsmaßnahme, andere nur eine PR-Aktion. OpenAI selbst, ein kleines Labor in San Francisco, das allgemeine künstliche Intelligenz entwickeln will, besteht darauf, dass die Vorgehensweise ein wichtiges Experiment in der Frage war, wie mit heiklen Forschungsergebnissen umzugehen ist.

Sechs Monate später hat das Politik-Team jetzt einen Fachaufsatz veröffentlicht, der sich mit den bisherigen Auswirkungen der Entscheidung beschäftigt. Parallel dazu publizierte das Labor eine Version seines als GPT-2 bezeichneten Modells, die ungefähr halb so leistungsfähig sein soll wie das eigentliche, das weiter geheim bleibt.

Im Mai hatte OpenAI entschieden, GPT-2 nicht komplett für sich zu behalten, sondern den vollständigen Code in mehreren Schritten freizugeben. Im Februar wurden zunächst nur 8 Prozent von GPT-2 veröffentlicht, später ungefähr ein weiteres Viertel davon. Währenddessen erkundete OpenAI zusammen mit ausgewählten Forschungsinstituten als Partner, was die Folgen des vollständigen Modells sein würden.

In dem neuen Bericht wird erklärt, was OpenAI bei diesem Prozess gelernt hat. Sowohl die gestaffelte Veröffentlichung als auch die Zusammenarbeit mit Partnern werden darin als Prozesse bezeichnet, die in Zukunft wiederholt werden sollten – sie hätten dabei geholfen, mögliche böswillige Nutzungen von GPT-2 besser zu verstehen und vorwegzunehmen. Tatsächlich ist es den Forschungspartnern gelungen, einige der bis dahin nur spekulativen Gefahren besser zu quantifizieren.

So stellten Forscher der Cornell University fest, dass Leser Artikeln von GPT-2 ebenso häufig Glauben schenkten wie solchen der "New York Times". Forscher außerhalb der offiziellen Partnerschaft beschäftigten sich zudem mit der Frage, wie sich maschinengenerierter Text erkennen lässt.

Laut der neuen OpenAI-Studie ließen sich trotz sorgfältiger Suche bislang keine Versuche böswilliger Nutzung finden, dafür aber mehrere vorteilhafte Anwendungen wie für Auto-Vervollständigung, Grammatik-Hilfe und die Entwicklung von Frage-Antwort-Systemen für medizinische Unterstützung. Somit war das Labor der Ansicht, dass die Veröffentlichung weiterer Code-Stücke insgesamt von Nutzen sein würde. Andere Forscher argumentieren, mehrere erfolgreiche Versuche, GPT-2 zu replizieren, hätten das Zurückhalten des Codes durch OpenAI inzwischen ohnehin überflüssig gemacht.

Die Reaktionen auf die Studie waren gemischt. Zum Teil wurde OpenAI dafür gelobt, eine Diskussion angeschoben und neue Normen eingeführt zu haben, die es bislang nicht gab. "Die gestaffelte Veröffentlichung von GPT-2 war ein nützliches Experiment", sagt etwa Peter Eckersley, Forschungsleiter bei der Partnership on AI, zu der auch OpenAI Mitglied gehört. "Die KI-Community wurde versammelt, um über diese Fragen zu diskutieren, und wir haben festgestellt, dass bei der Entscheidung, wann und wie man Forschungsergebnisse publiziert, die unerwünschte Folgen oder böswillige Nutzungen mit sich bringen könnten, viele kleine Aspekte beachtet werden müssen."

Mehr Infos

Andere aber sehen die Entscheidung von OpenAI weiter kritisch. Zum Beispiel Vanya Cohen, ein Master-Absolvent an der Brown University, der eine Open-Source-Version von GPT-2 entwickelt hat: "Große Sprachmodelle wie GPT-2 sind die besten derzeit verfügbaren Werkzeuge, um gefälschte Texte zu identifizieren, die von denselben Modellen generiert wurden", erklärt er.

Jack Clark, Politik-Direktor bei OpenAI, stellt GPT-2 in den Zusammenhang der Gesamtmission der Organisation. "Wenn es uns als KI-Community gelingt, allgemeine künstliche Intelligenz zu entwickeln, werden wir eine riesige Menge an historischen Beispielen" für den Umgang mit heikler Forschung brauchen, sagt er. "Aber was ist, wenn es keine historischen Beispiele gibt? Nun, dann muss man eigene generieren – und genau das machen wir hier."

(sma)