MIT Technology Review 6/2021
S. 24
Fokus
KI-Ethik

Die Zwietracht-Maschine

Software wie GPT-3 ist mittlerweile verblüffend gut darin, Texte zu erstellen. Doch der technische Fortschritt hat auch eine dunkle Seite – diese KI kann auch Fake News erfinden, Hassbotschaften erzeugen und Terror-Manifeste schreiben.

Von Wolfgang Stieler

Als das Forschungs-Unternehmen Open AI im Februar 2019 vor seiner eigenen Software warnte, hielten manche Beobachter die ganze Aktion für einen gut platzierten PR-Gag. GPT-2 (Generative Pre-trained Transformer) ist ein spezielles neuronales Netz von Open AI, das ziemlich gut darin ist, das nächste Wort in einem Text zu berechnen. Gibt man dieser Software ein bis zwei Sätze vor, ergänzt sie diesen Anfang durch dazu passenden, aber komplett neu erzeugten Text.

Das eröffnet faszinierende Möglichkeiten für verblüffend lebensechte Chatbots oder die automatisierte Erstellung von Routinetexten, lässt sich aber auch missbrauchen: Beginnt man beispielsweise im Stil einer Zeitungsmeldung zu schreiben, dass zum Beispiel die Chinesen gerade Washington besetzt hätten, spinnt die Software ungerührt und knochentrocken die Geschichte weiter: Fake News auf Knopfdruck. Das sei möglicherweise zu gefährlich, schrieben die Entwickler von Open AI. Man müsse das Missbrauchspotenzial näher untersuchen.