KI gegen KI

Mit neuen Maschinenlern-Techniken wird es immer leichter, Video- und Audio-Inhalte zu fälschen. In einem Wettbewerb soll jetzt getestet werden, ob man automatisiert dagegen vorgehen kann.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 5 Min.
Von
  • Will Knight
Inhaltsverzeichnis

Sie glauben, dass künstliche Intelligenz (KI) dazu beitragen kann, die Verbreitung von Fake-News zu stoppen? Das US-Militär ist sich da nicht so sicher.

Mehr Infos

Das US-Verteidigungsministerium finanziert ein Projekt, bei dem erforscht werden soll, ob es bald gar nicht mehr möglich sein wird, immer realistischer wirkende Video- und Audio-Inhalte von echten zu unterscheiden – nicht einmal mit der Hilfe von anderen KI-Systemen. In diesem Sommer sollen führende Experten für Digital-Forensik bei einem Wettbewerb im Fälschen von Inhalten mittels KI antreten, finanziert von der Defense Advanced Research Projects Agency des Ministeriums. Die Teilnehmer sollen versuchen, möglichst überzeugende falsche Videos, Bilder und Ton-Aufzeichnungen zu generieren – und gleichzeitig Werkzeuge zu entwickeln, mit denen sich diese Fälschungen automatisch identifizieren lassen.

Bei dem Wettbewerb wird es auch um so genannte „Deep Fake“-Videos gehen, bei denen das Gesicht einer Person auf den Körper einer anderen montiert wird. Wie zu erwarten war, wird diese Technologie bereits intensiv genutzt, um beispielsweise Porno-Videos mit Prominenten zu fälschen. Ebenso ließe sich die Methode aber auch einsetzen, um einen Clip mit einem Politiker zu produzieren, der sich auf empörende Weise äußert.

Besonders besorgt sind DARPA-Experten über eine relativ neue KI-Technik, die das automatische Erkennen von Fälschungen fast unmöglich machen könnte: Mit der Hilfe von Generative Adversarial Networks, kurz GANs, lassen sich beeindruckend realistische künstliche Bilder erzeugen.

„Theoretisch könnte ein GAN alle Techniken zur Erkennung überwinden, wenn wir ihm alle geben würden, die wir kennen“, sagt David Gunning, für das Projekt verantwortlicher Manager bei der DARPA. „Wir wissen nicht, ob es eine Grenze dafür gibt. Es ist unklar.“

Normalerweise wird eine digitale Fälschung in drei Schritten erkannt. Erstens wird die digitale Datei auf Anzeichen dafür untersucht, dass zwei Bilder oder Videos zusammengeführt wurden. Zweitens prüft man die Beleuchtung und andere physikalische Eigenschaften des Materials auf Auffälligkeiten. Der dritte Schritt lässt sich am schwierigsten automatisieren: Man achtet auf logische Inkonsistenzen wie das falsche Wetter für das angegebene Datum oder einen falschen Hintergrund für den Standort.

Walter Scheirer ist als Experte für Digital-Forensik an der University of Notre Dame an dem DARPA-Projekt beteiligt. Seit seinem Start vor einigen Jahren sei die Technologie erstaunlich weit vorangekommen, sagt er: „Wir befinden uns definitiv in einem Wettrüsten.“

Für geschickte Grafik-Experten ist es seit langem kein Problem, überzeugend wirkende Fälschungen zu produzieren, doch mit KI dürfte die Technologie dafür breiter zugänglich werden. „Das Feld hat sich von staatlich finanzierten Akteuren und Hollywood zu irgendwelchen Leuten auf Reddit verschoben“, sagt Hany Farid, der als Professor am Dartmouth College auf digitale Forensik spezialisiert ist. „Dass wir jetzt diese Dringlichkeit verspüren, liegt daran, dass es um den Schutz der Demokratie geht.“

Deep Fakes nutzen eine beliebte Maschinenlern-Technik namens Deep Learning, um automatisch ein neues Gesicht in ein bestehendes Video einzufügen. Wenn große Datenmengen in ein sehr großes oder „tiefes“ neuronales Netzwerk eingespeist werden, kann ein Computer auf dieser Grundlage alle möglichen Arten von nützlichen Aufgaben erlernen, beispielsweise sehr genaue Gesichtserkennung. Doch derselbe Ansatz macht auch Video-Manipulationen mit böswilliger Absicht leichter. Mit einem online verfügbaren Werkzeug kann jeder mit nur etwas technischem Wissen neue Deep Fakes generieren. Und wie der Entwickler dieses Werkzeuges in einem Interview sagte, arbeitet er bereits an einer noch nutzerfreundlicheren Version.

Und natürlich geht dieses Problem weit über den Austausch von Gesichtern hinaus. Immer mehr Experten warnen, es werde nicht mehr lange dauern, bis man kaum noch sagen kann, ob ein Foto, Video oder Audio-Clip von einer Maschine generiert wurde. Google hat sogar bereits eine Lösung namens Duplex entwickelt, die mit Hilfe von KI Telefongespräche simuliert.

Aviv Ovadya, Cheftechnologe am Center for Social Media Responsibility der University of Michigan, hat die Sorge, dass die derzeit entwickelten KI-Technologien den Ruf von Personen schädigen, Wahlen beeinflussen oder noch Schlimmeres anrichten könnten. „Man kann diese Technologien auf wunderbare Weise für Unterhaltung einsetzen, und auf viele sehr erschreckende Weisen“, sagte er Mitte Mai bei einer Bloomberg-Veranstaltung. „Bereits heute werden in vielen Entwicklungsländern modifizierte Bilder verwendet, um echte Gewalt auszulösen. Das ist eine reale und konkrete Gefahr.“

Wenn sich Fälschungen und Fehlinformationen mit Technologie nicht abfangen lassen, könnte stattdessen der Ruf nach dem Gesetzgeber laut werden. Laut dem Dartmouth-Professor Farid könnte sich jedoch auch das als problematisch erweisen, weil die Wahrheit an sich nicht leicht zu greifen ist. „Wie soll man Fake News definieren? Das ist nicht so leicht, wie Sie vielleicht glauben“, sagt er. „Ich kann ein Bild auch durch bloßes Beschneiden grundlegend verändern. Und wie sieht es mit Satire-Seiten wie The Onion aus?“

(sma)