Deepfake: Manipulierte Videos gefährden die US-Wahl und Demokratie

Im November 2024 wird zum 60. mal ein US-Präsident gewählt. Erste Fake-Videos sind im Internet bereits aufgetaucht – und die wirken dank KI zunehmend echter.

In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen

Fotomontage von Hillary Clinton und Ron DeSantis

(Bild: heise online)

Lesezeit: 4 Min.

Am 5. November 2024 wird in den USA zum 60. mal ein Präsident gewählt. Seit einiger Zeit tauchen bereits gefälschte Videos von etwa Hillary Clinton oder Joe Biden im Internet und den sozialen Medien auf. Problematisch sind die immer besser trainierten generativen KIs, die die Deepfake-Videos zunehmend realistischer aussehen lassen. Immer mehr Experten warnen vor den Gefahren durch künstliche Intelligenz und generativen KIs.

Bereits 2018 haben neuronale Netzwerke Fake-Porn und Hitler-Parodien erschaffen. Im Gegensatz zu damals sind die generativen KIs heute jedoch deutlich besser trainiert, einfacher zu bedienen, teilweise kostenlos und liefern täuschend echt aussehende Ergebnisse. Für die Wähler werde es sehr schwierig, echte Videos von gefälschten zu unterscheiden, sind sich die Spezialisten einig.

Kürzlich tauchte etwa ein Video auf, in dem sich Hillary Clinton für den Republikaner Ron DeSantis aussprach. In dem Deepfake wurden der Frau des ehemaligen US-Präsidenten die Worte in den Mund gelegt: "Die Menschen werden überrascht sein, das von mir zu hören, aber ich mag Ron DeSantis." DeSantis sei derjenige, den das Land jetzt benötige. Das Video wurde unter anderem auf Twitter in geringer Auflösung veröffentlicht und sieht täuschend echt aus.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Darrell West, Senior Fellow am Center for Technology Innovation der Brookings Institution, erklärt gegenüber Reuters: "Sie können sich vorstellen, wie entweder Donald Trump- oder Joe Biden-Anhänger diese Technologie nutzen könnten, um den Gegner schlecht aussehen zu lassen." Kurz vor der Wahl könnten ihm zufolge manipulierte Inhalte auftauchen, die niemand mehr abschalten könne.

Donald Trump habe kürzlich selbst ein Fake-Video in seinem sozialen Netzwerk "Truth Social" veröffentlicht. Ein CNN-Moderator habe demnach gesagt: "Das war Donald J Trump, der uns hier bei CNN-Townhall live den Arsch aufgerissen hat." Die Lippenbewegungen sind allerdings in dem Video nicht synchron zu dem, was dem Moderator Anderson Cooper untergeschoben wurde. Auf Twitter bestätigt der "Donald Trump Jr."-Account, dass dieses Video echt sei. Der Twitter-Account hat zwar den blauen Verifizierungshaken, dieser ist mittlerweile aber auch im Abo "Twitter Blue" erhältlich. CNN erklärte, dass das Video Deepfake sei. Seit Beginn des Jahres kursiert ein Deepfake-Video von Joe Biden im Internet, in dem er eine Transgender-Person angreift. Die folgenden Beispiel-Fake-Videos sind bei Weitem (noch) nicht perfekt, aber die rasche Entwicklung der Tools könnten bis zur heißen Phase der US-Wahlen deutlich fortgeschritten sein.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Während 2020 die Wahlen noch weitgehend ohne Deepfakes abliefen, wurden laut DeepMedia in diesem Jahr im gleichen Zeitraum bereits die dreifache Menge an Video- und achtmal mehr Audio-Deepfakes als noch vor zwei Jahren veröffentlicht. DeepMedia ist ein Unternehmen, das sich auf die Erkennung manipulierter Inhalte spezialisiert hat und seinen Schätzungen zufolge, werden 2023 etwa 500.000 manipulierte Video- und Audio-Inhalte veröffentlicht. Auch, weil die Kosten dafür enorm gesunken sind – Ende des vergangenen Jahres hätte etwa das Klonen einer Stimme 10.000 Dollar an Trainingskosten betragen, heute würden Start-ups dies für ein paar Dollar anbieten, berichtet Reuters weiter. Gleiches gilt für die Manipulation von Fotos.

Bereits 2021 warnte eine EU-Studie vor Deepfakes, die die Demokratie, Individuen und Wirtschaft gefährden könnten. Heute warnt die KI-Industrie selbst und Wissenschaftler sowie Forscher vor den Folgen generativer Künstlicher Intelligenz. Neben Aussagen, dass die KI "so gefährlich wie Pandemien und Atomkrieg" sei, spricht der ChatGPT-Gründer etwa über intime Chatverläufe, die eine neue Art des Datenschutzes benötige und gesteht die Risiken ein: "Wie Photoshop auf Steroiden".

(bme)