Gegen gefälschte Videos: Deep-Fakes anhand von Kopfbewegungen erkennen

Gefälschte Videos von Politikern und Prominenten werden immer mehr zum Problem. Mit einer neuen Methode lassen sie sich entdecken – vorerst jedenfalls.

In Pocket speichern vorlesen Druckansicht 76 Kommentare lesen
Deep-Fakes erkennen anhand von charakteristischen Kopfbewegungen

(Bild: University of California, Berkeley)

Lesezeit: 2 Min.
Von
  • Sascha Mattke

Zunehmend können selbst Laien täuschend echte Videos beliebiger Personen mit beliebigen Aussagen produzieren. Eine neue Methode, entwickelt von Forschern der University of California in Berkeley und der University of Southern California, soll solche Fälschungen jetzt aufdecken. Dazu wird mittels Maschinenlernen überprüft, ob die Gesichts- und Kopfbewegungen eines Sprechers seinen eigenen entsprechen. Doch das Wettrüsten zwischen Fälschung und Erkennung dürfte weitergehen, berichtet Technology Review online in „Weiche Biometrie gegen gefälschte Videos“.

Mit einem vorhandenen Werkzeug extrahierten die Forscher Gesichts- und Kopfbewegungen unterschiedlicher prominenter Personen. Mit Hilfe von Generative Adversial Networks erstellten sie außerdem eigene Deep Fakes von Donald Trump, Barack Obama, Bernie Sanders, Elizabeth Warren und Hillary Clinton. In Tests konnte ihre Technik mit mindestens 92 Prozent Genauigkeit verschiedene dieser Deep Fakes erkennen, darunter solche, bei denen das Gesicht ausgetauscht wurde. Zudem kam sie auch mit Artefakten in den Dateien zurecht, die entstehen, wenn ein Video neu komprimiert wird.

Ihr eigenes Verfahren wollen die Forscher noch verbessern, indem sie auch die charakteristische Sprechweise von Personen berücksichtigen. Die Arbeit, vorgestellt im Juni bei einer Konferenz zu maschinellem Sehen in Kalifornien, wurde von Google und dem Pentagon-Forschungsarm DARPA finanziert. Laut Hao Li, einem Professor an der University of California, der an der aktuellen Arbeit beteiligt war, wird es für Fälscher besonders schwierig sein, auch auf diese Technik zu reagieren – doch er räumt ein, dass es irgendwann passieren wird. „Der nächste Schritt zur Umgehung würde darin bestehen, Bewegungen und Verhaltensweisen aus früheren Beobachtungen der konkreten Person zu synthetisieren“, erklärt er.

Mehr dazu bei Technology Review online:

(sma)