Fake News automatisiert schreiben: 50 Prozent von heiklem Textgenerator öffentlich

Wie ist mit Forschungsergebnissen umzugehen, die erhebliches Missbrauchspotenzial haben? Diese Frage stellt sich in Zusammenhang mit Fake News ganz konkret.

In Pocket speichern vorlesen Druckansicht 48 Kommentare lesen
OpenAI veröffentlicht größeres Teil-Modell von heiklem Textgenerator

(Bild: Photo by Elijah O'Donnell on Unsplash)

Lesezeit: 2 Min.
Von
  • Sascha Mattke

Die Organisation OpenAI hat ein leistungsfähigeres Teil-Modell seines in diesem Februar erstmals vorgestellten Sprachmodells GPT-2 veröffentlicht, das täuschend echte Nachrichten beliebigen Inhalts generieren kann. Zunächst wollte das Team dahinter wegen des Missbrauchspotenzials auf die Freigabe fast vollständig verzichten, entschied sich aber später, den Programmcode für GPT-2 gestaffelt zu veröffentlichen. Die jetzt publizierte Version hat ungefähr 50 Prozent des Umfangs des eigentlichen Modells, berichtet Technology Review online in "Fake News, zu 50 Prozent perfekt".

Im Februar wurden zunächst nur 8 Prozent von GPT-2 veröffentlicht, später ungefähr ein weiteres Viertel davon. Währenddessen erkundete OpenAI zusammen mit ausgewählten Forschungsinstituten als Partner, was die Folgen des vollständigen Modells sein würden. In einem neuen Bericht wird erklärt, welche Erkenntnisse dieser Prozess gebracht hat. Sowohl die gestaffelte Veröffentlichung als auch die Zusammenarbeit mit Partnern werden darin als wiederholenswert beschrieben – sie hätten dabei geholfen, mögliche böswillige Nutzungen von GPT-2 besser zu verstehen und vorwegzunehmen. Tatsächlich ist es den Forschungspartnern gelungen, einige der bis dahin nur spekulativen Gefahren besser zu quantifizieren. So stellten Forscher der Cornell University fest, dass Leser Artikeln von GPT-2 ebenso häufig Glauben schenkten wie solchen der "New York Times".

Laut der OpenAI-Studie ließen sich trotz sorgfältiger Suche bislang keine Versuche böswilliger Nutzung finden, dafür aber mehrere vorteilhafte Anwendungen wie für Auto-Vervollständigung, Grammatik-Hilfe und die Entwicklung von Frage-Antwort-Systemen für medizinische Unterstützung. Somit war das Labor der Ansicht, dass die Veröffentlichung weiterer Code-Stücke insgesamt von Nutzen sein würde. Andere Forscher argumentieren, mehrere erfolgreiche Versuche, GPT-2 zu replizieren, hätten das Zurückhalten des Codes durch OpenAI inzwischen ohnehin überflüssig gemacht.

Mehr dazu bei Technology Review online:

(sma)