KI: Fake News aus der Zwietracht-Maschine

Software wie GPT-3 lässt sich für Desinformation missbrauchen. Noch sind diese Sprachmodelle zwar streng kontrolliert. Doch das ändert sich.

In Pocket speichern vorlesen Druckansicht 40 Kommentare lesen
Künstliche Intelligenz als Hilfswissenschaftler: KI revolutioniert die Forschung

(Bild: Phonlamai Photo/Shutterstock.com)

Lesezeit: 5 Min.

Große Sprachmodelle wie GPT-3 sind verblüffend gut darin, Texte zu schreiben. Allerdings sind sie mittlerweile auch so gut, dass sie sich auch für Desinformation missbrauchen lassen, berichtet Technology Review in seiner aktuellen Ausgabe (am gut sortierten Kiosk oder online bestellbar).

Wie groß die Gefahr einer „automatisierten Desinformation“ ist, lässt sich aus aktuellen Untersuchungen ableiten – wie die von Ben Buchanan und Kollegen vom Center for Security and Emerging Technology (CSET) der Georgetown University in Washington, die GPT-3 zur politischen Einflussnahme und Polarisierung in Online-Foren nutzten. Andere Forscher wie Kris McGuffie und Alex Newhouse vom Middlebury Institute of International Studies brachten GPT-3 dazu, Verschwörungstheorien zu entwickeln und auf Knopfdruck extremistische „Manifeste“ in beliebiger ideologischer Spielart zu liefern.

Die Forscher machten sich dabei zu Nutze, dass GPT-3 den „Prompt“ – jenen Textanfang, den der Mensch liefert – offenbar nicht nur als Beispiel interpretiert, sondern aus diesem Beispiel auch etwas über die spezifischen Randbedingungen der Aufgabe lernt. Schreibt man dem System also sinngemäß: „Das ist ein Dialog zwischen einem Chatbot und einem Menschen. Der Chatbot ist höflich und freundlich. Mensch: Maschinen sind dumm und gefährlich“, reagiert das Modell tatsächlich höflich und moderat.

Gibt man dagegen vor, „der Chatbot ist aggressiv und beleidigend“, kann es gut sein, dass die Maschine so etwas wie „Verpiss Dich!“ entgegnet. Sogar scheinbar sachliche Fragen wirken prägend. Kris McGuffie und Alex Newhouse stellten GPT-3 für ihre Untersuchung beispielsweise Fragen zur Verschwörungstheorie QAnon. Nach einiger Zeit fing das System plötzlich an, die Verschwörungstheorie weiterzuspinnen.

Die Untersuchungen zeigen, dass sich Operationen wie die Online-Einmischung in den US-Wahlkampf mithilfe von mächtigen Sprachmodellen wie GPT-3 zumindest zum Teil automatisieren lassen müssten. Und der Graumarkt für politische Einflussnahme boomt: Das Oxford Internet Institute berichtet in einer Studie 2020 von 48 Fällen, in denen private Unternehmen „computergestützte Propaganda im Dienst politischer Akteure“ verbreitet haben. Der Umsatz auf dem Markt der „industrialisierten Desinformation“, auf dem meist dubiose Agenturen agieren, betrug laut der Studie 2018 mindestens 50 Millionen Dollar – Tendenz steigend. Jüngster Fall: Die BBC berichtete, Influencer wären von einer dubiosen Agentur angesprochen worden – sie sollten Zweifel an der Wirksamkeit von Corona-Impfungen sähen.

Große Sprachmodelle können zwar noch keine Videos erstellen. „Eine Person kann aber mithilfe von Software wie GPT-3 Tausende von Nachrichten über eine Idee oder ein Thema veröffentlichen, die sowohl kohärent als auch vielfältig sind, sodass es so aussieht, als ob diese eine Person in Wirklichkeit viele Menschen sind. Dies könnte den Trend beschleunigen, seltene extreme Ideen in den Vordergrund zu rücken“, schreibt Andrew Lohn vom CSET.

Noch ist das Problem eher theoretischer Natur, weil der Zugriff auf GPT-3 streng begrenzt ist. Doch es ist nur eine Frage der Zeit, bis sich das ändert. Huawei beispielsweise hat mit Pangu-Alpha ein großes Sprachmodell mit 200 Milliarden Parametern vorgestellt. Und das von der Beijing Academy of Artificial Intelligence (BAAI, Peking) entwickelte Modell Wu Dao 2.0 mit rund 1,75 Billionen Parametern soll nicht nur ebenfalls menschlich klingende Texte formulieren. Es kann auch Bilder beschreiben und selbst Bilder erzeugen – ähnlich wie das System Wall-E von Open AI – und erst kürzlich stellte das israelische Start-up AI21 ebenfalls ein eigenes großes Sprachmodell vor.

TR 6/2021

Ein deutsches Konsortium unter Führung von Fraunhofer will nun mit GPT-X eine europäische Alternative liefern. Das Heidelberger Start-up Aleph Alpha will sogar noch schneller eine eigene Sprach-KI entwickeln. Ziemlich weit die Nase vorn hat allerdings auch die Entwicklergruppe Eleuther AI. Das 2020 gegründete „dezentrale Graswurzel-Kollektiv“ hat bereits eine eigene, kleine Variante von GPT-3 online gestellt. Jeder, der Interesse hat, kann sich das GPT-J 6B mit seinen sechs Milliarden Parametern herunterladen. Dabei will die Gruppe jedoch nicht stehenbleiben. In naher Zukunft will sie ein Modell „in der Größenordnung“ von GPT-3 – mit etwa 200 Milliarden Parametern – veröffentlichen.

Angst vor einem möglichen Missbrauch haben die Entwickler dabei offenbar nicht. „Da GPT-3 bereits existiert und wir noch nicht von einer bösartigen KI übernommen wurden, sind wir recht zuversichtlich, dass Modelle dieser Größenordnung nicht extrem gefährlich sind“, schreibt die Gruppe auf ihrer Homepage. Die Veröffentlichung von Open-Source-Software wie GPT-J würde allen Interessierten ermöglichen, „sicherheitskritische Forschung zu betreiben, bevor solche Modelle wirklich gefährlich werden.“

(wst)