Desinformation: Über die Gefahren von GPT-3

Software ist mittlerweile verblüffend gut darin, Texte zu erstellen. Doch der technische Fortschritt hat eine dunkle Seite – KI kann auch Fake News erfinden.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen
Lesezeit: 15 Min.
Inhaltsverzeichnis

Als das Forschungs-Unternehmen Open AI im Februar 2019 vor seiner eigenen Software warnte, hielten manche Beobachter die ganze Aktion für einen gut platzierten PR-Gag. GPT-2 (Generative Pre-trained Transformer) ist ein spezielles neuronales Netz von Open AI, das ziemlich gut darin ist, das nächste Wort in einem Text zu berechnen. Gibt man dieser Software ein bis zwei Sätze vor, ergänzt sie diesen Anfang durch dazu passenden, aber komplett neu erzeugten Text.

Das eröffnet faszinierende Möglichkeiten für verblüffend lebensechte Chatbots oder die automatisierte Erstellung von Routinetexten, lässt sich aber auch missbrauchen: Beginnt man beispielsweise im Stil einer Zeitungsmeldung zu schreiben, dass zum Beispiel die Chinesen gerade Washington besetzt hätten, spinnt die Software ungerührt und knochentrocken die Geschichte weiter: Fake News auf Knopfdruck. Das sei möglicherweise zu gefährlich, schrieben die Entwickler von Open AI. Man müsse das Missbrauchspotenzial näher untersuchen.

Die Texte von GPT-2 waren für eine Software zwar verdammt gut – nach menschlichen Maßstäben aber bestenfalls mittelmäßig. Grundsätzlich war die Software beispielsweise in der Lage, handelnde Personen konsistent in einzelne Absätze einzubauen. Längere Texte wiesen aber immer wieder logische Brüche und Sprünge auf. Weil so erzeugte Nachrichten relativ leicht von Menschen erkannt werden können, veröffentlichte Open AI nach einigen Monaten des Zögerns dann doch den Quellcode und die Parameter für das neuronale Netz.