Weiche Biometrie gegen gefälschte Videos

Zunehmend können selbst Laien täuschend echte Aufnahmen beliebiger Personen mit beliebigen Aussagen produzieren. Eine neue Methode deckt solche Fälschungen auf – doch das Wettrüsten geht weiter.

In Pocket speichern vorlesen Druckansicht
Weiche Biometrie gegen gefälschte Videos

(Bild: University of California, Berkeley)

Lesezeit: 3 Min.
Von
  • Will Knight

Ein mittels KI produziertes Video könnte zeigen, wie US-Präsident etwas extrem Ärgerliches oder Aufwieglerisches sagt oder tut. Das wäre nur zu glaubwürdig, und in einem Worst-Case-Szenario könnte es eine Wahl beeinflussen, Gewalt auf der Straße auslösen oder sogar einen internationalen bewaffneten Konflikt.

Glücklicherweise gibt es jetzt eine neue Technik für digitale Forensik, mit der man Trump, andere Regierungschefs und Prominente vor solchen Deep Fakes schützen kann –­ zumindest vorerst. Bei der neuen Methode wird mittels Maschinenlernen der individuelle Stil analysiert, mit dem eine Person spricht und sich bewegt.

Entwickelt wurde sie von Forschern der University of California in Berkeley und der University of Southern California; sie sprechen in diesem Zusammenhang von einer „weich-biometrischen Signatur“. Mit einem vorhandenen Werkzeug extrahierten sie die Gesichts- und Kopfbewegungen unterschiedlicher Personen. Mit Hilfe von Generative Adversial Networks erstellten sie außerdem eigene Deep Fakes von Trump, Barack Obama, Bernie Sanders, Elizabeth Warren und Hillary Clinton.

In Tests konnte die Technik mit mindestens 92 Prozent Genauigkeit mehrere unterschiedliche Deep Fakes erkennen, darunter solche, bei denen das Gesicht ausgetauscht wurde. Zudem kam sie auch mit Artefakten in den Dateien zurecht, die entstehen, wenn ein Video neu komprimiert wird, was bei anderen Techniken Probleme bereiten kann. Ihr eigenes Verfahren wollen die Forscher noch verbessern, indem sie auch die charakteristische Sprechweise von Personen berücksichtigen. Die Arbeit, vorgestellt im Juni bei einer Konferenz zu maschinellem Sehen in Kalifornien, wurde von Google und dem Pentagon-Forschungsarm DARPA finanziert.

Das Problem für politische Führungsfiguren weltweit (und jeden anderen Menschen) besteht darin, dass es lächerlich einfach geworden ist, mit Hilfe von künstlicher Intelligenz gefälschte Videos zu erstellen. Dadurch beeinflussen falsche Nachrichten, betrügerische Sozialmedien-Profile und manipulierte Videos bereits heute Berichterstattung und Diskussionen in der Politik. Eine besondere Sorge ist, dass falsche Medieninhalte genutzt werden könnten, um bei den US-Präsidentschaftswahlen 2020 Falschinformationen zu verbreiten.

Einige Werkzeuge zum Erkennen von Deep Fakes gibt es bereits, doch die Fälscher haben schnell darauf reagiert. So war es eine Zeitlang möglich, Fälschungen durch das Nachverfolgen der Augenbewegungen eines Sprechenden zu entlarven, die in Deep Fakes unnatürlich erschienen. Doch kurz nach Bekanntwerden dieser Methode wurden die Algorithmen überarbeitet, um sie überzeugender zu machen.

„Wir erleben ein Wettrüsten zwischen digitalen Manipulationen und der Fähigkeit, sie zu erkennen, und beide Seiten nutzen dabei Fortschritte bei KI-basierten Algorithmen“, sagt Hao Li, ein Professor an der University of California, der an der aktuellen Arbeit beteiligt war. Aus diesem Grund hat sein Team den Programm-Code für seine Methode bislang nicht veröffentlicht.

Laut Li wird es für Fälscher besonders schwierig sein, auch auf diese Technik zu reagieren, doch er räumt ein, dass es irgendwann passieren wird. „Der nächste Schritt zur Umgehung würde darin bestehen, Bewegungen und Verhaltensweisen aus früheren Beobachtungen der konkreten Person zu synthetisieren“, erklärt er.

Weil Deep Fakes immer einfacher und realistischer werden, rät Li außerdem jedem dazu, sich davor zu schützen. „Bislang waren die wichtigsten Ziele Prominente und Politiker“, sagt er. „Aber ich wäre nicht überrascht, wenn in ein oder zwei Jahren jeder Endnutzer in der Lage wäre, künstliche Menschen zu synthetisieren, die nicht von den echten Vorbildern zu unterscheiden sind.“

(sma)