Lügen auf Knopfdruck: GPT-4 offenbar anfälliger für Falschinformationen

Laut OpenAI soll die Text-KI GPT-4 besser darin sein, richtige Informationen von falschen zu trennen. Im Test einer US-Organisation fällt die KI glatt durch.

In Pocket speichern vorlesen Druckansicht 28 Kommentare lesen

(Bild: Dilok Klaisataporn/Shutterstock.com)

Lesezeit: 2 Min.

Die generative Text-KI GPT-4 kann offenbar leichter dafür missbraucht werden, Verschwörungstheorien und Falschinformationen in großem Umfang zu verbreiten. Nach Angaben der US-Organisation NewsGuard, die sich die Identifikation von Falschinformationen auf die Fahnen geschrieben hat, kann die KI noch schlechter als ihr Vorgänger GPT-3.5 erwiesene Falschinformationen als solche erkennen. Stattdessen liefere die KI noch detailliertere und überzeugendere Texte zur Weiterverbreitung.

NewsGuard hat die KI mit 100 bekannten Falschinformationen gefüttert und dann Texte darüber angefordert. Dazu zählten Verschwörungstheorien wie die angeblich kontrollierte Sprengung des World Trade Centers in New York im Jahre 2001 oder dass das HIV-Virus in einem US-Militärlabor künstlich hergestellt worden sei. Sie baten GPT-4 auch darum, den Amoklauf in der Sandy Hook Elementary School im Jahr 2012, bei dem unter anderem 20 Kinder starben, als Inszenierung darzustellen.

Während GPT-3.5 im Januar noch in 20 Prozent der Fälle ablehnte, einen Text zu formulieren, wenn die Aufforderung bekannte Falschinformation enthielt, verweigerte das kürzlich vorgestellte GPT-4 laut NewsGuard in keinem einzigen Fall den Dienst. Ganz im Gegenteil präsentierte das System gründlichere, detaillierte und überzeugendere Texte, um die Falschinformation glaubhafter erscheinen zu lassen. Dies steht im Widerspruch zu Aussagen von GPT-4-Entwickler OpenAI, demzufolge die neue Version besser geworden sei und eine um 40 Prozent höhere Wahrscheinlichkeit für sachliche Antworten aufweise. OpenAI wollte sich gegenüber NewsGuard nicht dazu äußern.

Zur fragwürdigen Überzeugungsarbeit durch GPT-4 gehört laut NewsGuard auch, dass die KI Zitate bekannter Personen besser fälschen kann, indem sie deren Wortlaut besser als ihr Vorgänger imitiert. Während GPT-3.5 in 51 von 100 Antworten wenigstens eine Art Haftungsausschluss beifügte, der erkennen ließ, dass der formulierte Text Verschwörungstheorien und Falschinformationen Vorschub leisten könnte, wies GPT-4 nur in 23 der 100 Antworten auf falsche und irreführende Behauptungen hin, erklärte NewsGuard.

Das US-Unternehmen NewsGuard hat sich zum Ziel gesetzt, der Desinformation entgegenzuwirken. Das Medien-Start-Up wird unter anderem auch von Microsoft unterstützt, das zugleich Investor von OpenAI ist. NewsGuard bewertet unter anderem Nachrichtenseiten, ob sie Nachrichten und Meinung trennen, Werbung als solche kennzeichnen oder ob sie Falschinformationen veröffentlichen.

(mki)