Fake Tagesschau: KI generierte Audiodatei kursiert

Die Tagesschau entschuldigt sich nicht für "Lügen in der Berichterstattung". Das aber behauptet eine KI-generierte Audiodatei.

In Pocket speichern vorlesen Druckansicht 132 Kommentare lesen
«Tagesschau»-App

(Bild: dpa, Julian Stratenschulte)

Lesezeit: 3 Min.

Gefälschte Audiodateien, die vermeintlich aus der Tagesschau stammen, kursieren derzeit online, werden auch über Messenger geteilt und wurden auf einer Demonstration in Kiel laut abgespielt. Die Tagesschau dementiert und warnt vor den Fakes. Drei verschiedene Versionen soll es geben.

Darin heißt es beispielsweise: "Guten Abend, meine Damen und Herren. Ich begrüße Sie zur Tagesschau. Heute möchten wir uns bei Ihnen entschuldigen. Seit über drei Jahren lügen wir Ihnen dreist ins Gesicht." Eigentlich ist es offensichtlich, dass dieser Satz wohl kaum offiziell aus der Tagesschau stammt.

Dennoch klingt es zunächst, als hätten ihn die Sprecherin Susanne Daubner und der Sprecher Jens Riewa gesagt. Beide Stimmen sind mittels KI geklont worden. Es gibt Software, beispielsweise Elevenlabs, mit der Stimmen innerhalb weniger Minuten synthetisiert werden können. Allerdings klingen die Audio-Fakes dann doch oft noch hölzern oder mechanisch. Das ist auch bei den gefälschten Audiodateien zur Tagesschau der Fall.

In allen Audiodateien geht es um eine "bewusste Manipulation" und um "Lügen" schreibt die Tagesschau auf ihrer Webseite. Die Themen sind der Krieg in der Ukraine, Corona und laut Tagesschau eine vermeintliche Denunzierung von Demonstranten. Abschluss ist immer eine Entschuldigung für die bisherige Berichterstattung.

Die Macher der Audiodateien nutzen freilich zum einen den Ruf der Tagesschau als seriöse Nachrichtenquelle aus, um ihren Fakes mehr Nachdruck zu verleihen. Dazu spielen sie beispielsweise auch den Jingle vor der Begrüßung ein. Gleichzeitig wollen sie den guten Ruf der Nachrichtensendung beschädigen. Die Themen sind offenkundig all jene, bei denen es eine Szene von "Querdenkern" gibt, die grundsätzlich alles ablehnen, was in gängigen Nachrichtenformaten gesagt und geschrieben wird.

Deepfakes gibt es freilich nicht nur im Audio-Bereich. Auch ganze Videos und Bilder können gefälscht werden. Dank KI ist das nun für fast jedermann und mit wenig Aufwand zu machen. So entstanden bereits Bilder des Papstes im weißen Daunenmantel oder auf einem Skateboard. Doch während manche Bilder amüsieren und eher harmlos sind, können andere Deepfakes im Zweifel das Weltgeschehen beeinflussen, beispielsweise wenn Politikern Aussagen in den Mund gelegt werden, die sie nicht gemacht haben.

Ein anderes Problem gibt es mit Deepfakes, die für pornografische Darstellungen genutzt werden. Das betrifft vor allem prominente Frauen und auch junge Mädchen. Dem Digitalministerium liegt eine Petition vor, Apps zu stoppen, die Deepfake-Pornos ermöglichen und gleichzeitig die Gesetze entsprechend zu schärfen.

(emw)