Deep Fakes: "Wow, das entwickelt sich schneller als ich dachte"

Deep Fake-Manipulationen werden bald nicht mehr von der Realität unterscheidbar sein, warnt Hao Li von der University of Southern California.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
„Wow, das entwickelt sich schneller als ich dachte.“

(Bild: Deepfake by Hao Li)

Lesezeit: 4 Min.
Von
  • Patrick Howell O'Neill
  • Angela Chen

Durch Künstliche Intelligenz gestützte Deep Fake-Videotechnologien entwickeln sich schneller weiter als es einige der weltweit führenden Experten für möglich gehalten hätten. So könnten innerhalb von wenigen Jahren perfekte und praktisch nicht nachweisbare Deep Fakes möglich sein, sagte Hao Li, ein Deep Fake-Pionier und außerordentlicher Professor an der University of Southern California Ende September auf der EmTech-Konferenz in Cambridge (Massachusetts).

Li arbeitet eng mit Hany Farid von der University of California Berkeley zusammen, einem der weltweit besten Wissenschaftler für digitale Forensik. Ihre Kooperation spiegelt nicht nur den Wettbewerb wider, schließlich besteht Farids Aufgabe darin, die Art von Deep Fakes zu entdecken, die Li erzeugt. Die Zusammenarbeit ist auch im weiteren Sinn sehr eng. "Unser gemeinsamer Ansatz geht davon aus, dass Deep Fakes perfekt sein werden", sagte Li. "Wir vermuten, dass sie in zwei bis drei Jahren soweit ist. Es wird keine Möglichkeit geben zu sagen, ob es echt ist oder nicht, also müssen wir einen anderen Ansatz wählen."

Li betreibt auch ein Start-up namens Pinscreen, das sich auf die geschäftliche und unterhaltende Nutzung der Technologie konzentriert. Sein Team stand hinter der Zauberei, die den kurz zuvor verstorbenen Schauspielern Paul Walker in den siebten "Furious 7"-Teil der "Fast and Furious"-Filmreihe zum Leben erweckte. Ein Zeichen dafür, dass Hollywood Klopfen immer lauter wird, ist Lis Mitarbeit an einem Filmprojekt von Will Smith. Gleichzeitig hat Li komplexe Gefühle in Bezug auf die Zukunft der Technologie, an der er gerade arbeitet.

"Eine Theorie dafür, warum sie noch keinen größeren Schaden angerichtet hat, ist die fehlende Qualität", sagt Li. "Aber sie wird dort ankommen. Und eine zweite Theorie besagt, dass die Technologie immer noch ein wenig Zuarbeit von den Benutzern erfordert, um wirklich gute Deep Fakes zu erstellen. Aber es ist lustig, weil ich vor ein paar Monaten gesagt habe, dass es Jahre dauern kann, bis es für jeden einfach sein wird. Niemand merkte, dass es diese chinesische App gab, die eine Woche später herauskam. Ich dachte: 'Wow, das entwickelt sich schneller als ich dachte!'"

Bei der App handelt es sich um Zao, ein Gesichtstausch-Programm, mit man sich mit einem einzigen Foto in großen Fernsehshows und Filmen platzieren kann. Die in China ungeheuer populäre App steht im Mittelpunkt einer Debatte über Datenschutz und unbeabsichtigte Konsequenzen. Die umstrittenen Passagen, die den Entwicklern sämtliche Rechte verschafften, sind aber mittlerweile aus den Nutzerbedingungen entfernt worden, berichtete die Online-Nachrichtenseite "Radii China". Trotzdem steht die leistungsstarke App nicht von ungefähr an der Spitze des chinesischen App Stores. Wer möchte nicht sofort Leonardo DiCaprio werden?

Mehr Infos

Ist Zaos Technik perfekt? Nein, sie ist noch weit davon entfernt. Doch die Tatsache, dass mit jedem Smartphone innerhalb weniger Sekunden so viel getan werden kann, zeigt jedoch, wie schnell Deep Fake-Technologie voranschreitet, und wie viele wichtige Fragen noch offen sind. Deshalb haben einige US-Staaten kürzlich Schutzgesetze verabschiedet: Texas‘ Gesetz zum Verbot von Deep Fakes ist bereits in Kraft getreten. In Kalifornien passierte ein ähnlicher Entwurf beide Parlamentskammern und wartet nur noch auf die Unterschrift von Gouverneur Gavin Newsom. Unterdessen hat die US-Kongressabgeordnete Yvette Clarke aus New York kürzlich ein Bundesgesetz namens "Deep Fakes Accountability Act" vorgeschlagen. Es würde Social-Media-Unternehmen dazu zwingen, bessere Erkennungstools in ihre Plattformen einzubauen und es ermöglichen, Personen zu bestrafen oder inhaftieren, die böswillige Deep Fakes veröffentlichen.

(vsz)