Facebook will Deepfakes via Reverse Engineering erkennen

Gemeinsam mit der Michigan State University hat Facebook eine neue Methode entwickelt, um Deepfakes zu erkennen – via Reverse Engineering.

In Pocket speichern vorlesen Druckansicht 10 Kommentare lesen

(Bild: chana/Shutterstock.com)

Lesezeit: 2 Min.

Facebook will Deepfakes quasi rückwärts entschlüsseln, um zu erkennen, dass es sich um eben solche handelt. Einzelne Bilder werden mittels Reverse Engineering in ihre Bestandteile und Informationen zerlegt. Die Methode wurde gemeinsam mit der Michigan State University entwickelt.

Statt anhand des Bildes selbst erkennen zu wollen, ob es sich um ein Deepfake handelt, soll das nun über die Attribute des Bildes geschehen, etwa, welche generative Modellierung genutzt wurde, um den Fake zu erstellen. Bisher habe ein Fokus oft auch darauf gelegen, zu schauen, ob Bilder beim Training von Modellen genutzt wurden. Das ist laut eines Facebook Blogbeitrags allerdings eher selten der Fall. Und nütze entsprechend wenig bei der Erkennung.

Die Reverse-Engineering-Methohde leitet nun basierend auf dem fertigen Deepfake Informationen über das Generative Model ab. Es sollen Fingerabdrücke erkannt werden, dazu können die Kamera und Sensoren gehören, die einzigartige Muster hinterlassen. "Es ist das erste Mal, dass Forschende es geschafft haben, Eigenschaften eines Modells zu identifizieren, mit dem ein Deepfake erschaffen wurde, ohne zuvor etwas über das Modell zu wissen." Das solle nun das Entdecken von Deepfakes erleichtern sowie aufzeigen können, ob Fälschungen aus demselben Hause stammen. Facebook wolle vor allem koordinierte Desinformationskampagnen, in denen Deepfakes genutzt werden, aufdecken.

Auf der Plattform sind bereits Videos, Fotos und Audios, die mittels Deep-Learning erstellt wurden und gezielt manipulieren sollen, verboten. Ausgenommen sind Satire und Parodien. Facebook hat die Kriterien zum Löschen der Inhalte mit Experten ausgearbeitet. Sie gelten auch für Beiträge, die aus mehreren Quellen zusammengeführt wurden. Die Unterscheidung zwischen erlaubten Parodien und verbotenen Fälschungen dürfte allerdings nach wie vor schwierig sein.

Auch andere Netzwerke versuchen Deepfakes zu verbannen. Google hat eine experimentelle Plattform gegründet, die Forschern und Journalisten helfen soll, sie zu erkennen. "Assembler" läuft unter dem Dach von Jigsaw, einer Alphabet-Tochter, die sich um die Bekämpfung von Extremismus und dem Schutz von Informationsfreiheit bemüht. Dort sammelt Google verschiedene Detektoren von Universitäten, um so die Ergebnisse zu verbessern beziehungsweise die Trefferquote zu erhöhen.

(emw)