Künstliche Intelligenz: GPT-3 generiert Texte ganz nach Bedarf – auch Fake News

KI-Systeme wie GPT-3 sind gut darin, kreativ zu texten. Sie beantworten Fragen im Plauderton, schreiben Kurzgeschichten oder entwickeln Verschwörungsmythen.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen

(Bild: Matthias Timm, MIT Technology Review/Heise)

Lesezeit: 16 Min.
Inhaltsverzeichnis

Als das Forschungsunternehmen OpenAI im Februar 2019 vor seiner eigenen Software warnte, hielten manche Beobachter die ganze Aktion für einen gut platzierten PR-Gag. GPT-2 (Generative Pretrained Transformer) ist ein spezielles neuronales Netz von OpenAI, das ziemlich gut darin ist, die Wahrscheinlichkeit für das nächste Wort in einem Text zu berechnen. Gibt man dieser Software ein bis zwei Sätze vor, ergänzt sie diesen Anfang durch dazu passenden, aber komplett neu erzeugten Text.

Das eröffnet faszinierende Möglichkeiten für erstaunlich lebensechte Chatbots oder die automatisierte Erstellung von Routinetexten, lässt sich aber auch missbrauchen: Beginnt man etwa im Stil einer Zeitungsmeldung zu schreiben, dass zum Beispiel die Chinesen gerade Washington besetzt hätten, spinnt die Software ungerührt und knochentrocken die Geschichte weiter: Fake News auf Knopfdruck. Das sei möglicherweise zu gefährlich, schrieben die Entwickler von OpenAI. Man müsse das Missbrauchspotenzial näher untersuchen.

Die Texte von GPT-2 waren für eine Software zwar äußerst gut – nach menschlichen Maßstäben aber bestenfalls mittelmäßig. Grundsätzlich war die Software beispielsweise in der Lage, handelnde Personen konsistent in einzelne Absätze einzubauen. Längere Texte wiesen aber immer wieder logische Brüche und Sprünge auf. Weil so erzeugte Nachrichten relativ leicht von Menschen erkannt werden können, veröffentlichte OpenAI nach einigen Monaten des Zögerns dann doch den Quellcode und die Parameter für das neuronale Netz.