Deepfakes: Die nackte Gefahr

Mit der Anwendung "DeepNude" war es möglich, gefälschte Nacktaufnahmen von Frauen zu generieren. Maschinelles Lernen wird zum echten Problem.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Deepfakes: Die nackte Gefahr

(Bild: Photo by Evgeny Nelmin on Unsplash)

Lesezeit: 4 Min.
Von
  • Karen Hao
Inhaltsverzeichnis

Computer sind mittlerweile in der Lage, realistische Fälschungen von Bildern und Videos zu erstellen. Die Debatte um die sogenannten Deepfakes ist mittlerweile auch in den Medien angekommen – und zumeist wird dabei die Gefahr erwähnt, die die Technik für die Politik darstellen könnte, etwa auf dem Feld des Propagandakrieges. Allerdings warnen Technikethiker und Menschenrechtsaktivisten mittlerweile auch vor einem ganz anderen Problem: Die KI-Verfahren könnte dazu verwendet werden, gefährdete Menschengruppen zu attackieren, etwa Minderheiten.

Ein Beispiel dafür ist eines der jüngsten Deefake-Experimente, eine App namens "DeepNude", mit der es möglich war, Bilder von Frauen zu verwenden, um diese virtuell "auszuziehen". Die Software nutzt sogenannte Generative Adversarial Networks (GANs), um die Kleidung von Frauen auf einem Foto durch realistische nackte Körper auszutauschen. Es kam schnell zu einer viralen Gegenbewegung und der Ersteller entschloss sich inzwischen, die App vom Netz zu nehmen.

"Die DeepNude-App belegt unsere schlimmsten Befürchtungen, wie audiovisuelle Werkzeuge zu einer Waffe gegen Frauen werden können", meint Mutale Nkonde, Fellow am Data & Research Institute und am Entwurf eines Gesetzes beteiligt, mit dem die US-Abgeordnete Yvette Clarke Opfern von Deepfakes rechtliche Gegenmaßnahmen an die Hand geben will.

"DeepNude" funktionierte nur mit Frauen. Die App gab stets nackte Frauenkörper aus, selbst wenn der Input ein Mann war. Der anonyme Entwickler teilte mit, er habe seinen GAN-Algorithmus nur an Nacktfotos von Frauen trainiert – über 10.000 sollen es gewesen sein. Diese seien online leichter zu finden gewesen. Er habe aber vorgehabt, auch noch eine Männer-Version zu schaffen, wenn auch später.

Obwohl die Deepfakes keine tatsächlichen Körper von Frauen zeigen – sie sind vollständig computergeneriert – hat die Technik doch das Potenzial, emotionale Schäden zu verursachen. Auch geht es Betroffenen um ihren Ruf. Aus "DeepNude" stammende Bilder können leicht als echte Aufnahmen wahrgenommen werden und als "Revenge Porn" Verwendung finden. Solche Beispiele gibt es aus der Vergangenheit. So wurde eine indische Journalistin mittels Deepfake in ein Pornovideo montiert, nachdem sie damit begonnen hatte, im Bereich der Regierungskorruption zu recherchieren. Der Streifen ging viral und sorgte für Online-Hass und Vergewaltigungsdrohungen. Die Betroffene ging mehrere Monate nicht mehr ins Netz.

Deepfakes sind kein neues Problem – manipulierte Medien gab es lange vor Künstlicher Intelligenz. Allerdings hat die Technik bestehende Trends beschleunigt und verbreitert, wie Sam Gregory, Programmdirektor beim Menschenrechtsprojekt Witness meint. Algorithmen hätten es so viel einfacher gemacht, echt wirkende falsche Inhalte zu generieren – auch können dies nun viel mehr Nutzer tun. Entsprechende dürfte die Technik immer häufiger Verwendung finden, um Beweise zu fälschen oder Journalisten ruhig zu stellen. Das macht Manipulationen viel gefährlicher.

"DeepNude" sei da nicht anders, meint Gregory. Schon jetzt sei "bildbasierter Missbrauch" von Frauen im Internet nicht selten. Deepfakes kippe noch Benzin ins Feuer.

Nkonde fürchtet, das künftig auch weitere gefährdete Gruppen zu Opfern werden könnten, Ausländer, LGBTQ-Personen und andere. Hinzu kommt die Gefahr der Wahlmanipulation. So soll Russland gefälschte Facebook-Profile angelegt haben, die Rassenunruhen anzetteln sollten. "Das ist eine neue Methode der Wahlunterdrückung, indem falsche Identitäten verwendet werden", so Nkonde. Deepfakes sei ein "weiteres natürliches Werkzeug" für diese "bösen Mitspieler".

Nkonde und Gregory fordern, dass Firmen und Forscher Werkzeuge schaffen sollten, die es erleichtern, Deepfakes zu erkennen – und diese am besten gleich in ihre Plattformen einbauen. Auch auf regulatorischer Seite müsse schnell etwas geschehen, meint Nkonde. "Wenn die Regierung es nicht schafft, die Rechte der Kunden zu schützen, werden sich solche Apps weiter ausbreiten."

Gregory meint, Technik sei "nie neutral". Die DeepNude-App habe keinen sinnvollen Zweck. "Sie ist nur dafür da, zu schaden und das ist unmoralisch." Er fordert ethische Vorgaben für die Entwicklung und Verbreitung von Werkzeugen, die "generative Medien" erstellen können. Das Thema müsse ständig angesprochen werden.

(bsc)