DeepNude: Machine-Learning-Algorithmus zieht Frauen auf Fotos aus

"DeepNude" kann aus Fotos von Menschen Nacktbilder errechnen. Die Anwendung wurde inzwischen offline genommen.

In Pocket speichern vorlesen Druckansicht 229 Kommentare lesen
ML-Algorithmus zog Frauen aus

Symbol der App DeepNude. Symbol für eine neue Sorte Spanner?

Lesezeit: 2 Min.

Eine GAN-gestützte Anwendung kann mittels maschinellem Lernen aus Bildern bekleideter Frauen Nacktfotos generieren. Die "DeepNude" genannte App ist mittlerweile nicht mehr verfügbar, berichtet Technology Review in seiner Online-Ausgabe ("Deepfakes: Die nackte Gefahr").

Die Entwickler haben sie offline genommen, sie seien vom großen Ansturm auf die App überrascht worden, schrieben sie auf Twitter. Die Gefahr des Missbrauchs sei zu groß, sie wollten nicht auf diese Weise Geld verdienen.

Computer sind mittlerweile in der Lage, realistische Fälschungen von Bildern und Videos zu erstellen. Die Debatte über die sogenannten Deepfakes ist mittlerweile auch in den Medien angekommen – und zumeist wird dabei die Gefahr erwähnt, die die Technik für die Politik darstellen könnte, etwa auf dem Feld des Propagandakrieges. Allerdings warnen Technikethiker und Menschenrechtsaktivisten mittlerweile auch vor einem ganz anderen Problem: Die KI-Verfahren könnte dazu verwendet werden, gefährdete Menschengruppen zu attackieren, etwa Minderheiten.

"Die DeepNude-App belegt unsere schlimmsten Befürchtungen, wie audiovisuelle Werkzeuge zu einer Waffe gegen Frauen werden können", meint Mutale Nkonde, Fellow am Data & Research Institute und am Entwurf eines Gesetzes beteiligt, mit dem die US-Abgeordnete Yvette Clarke Opfern von Deepfakes rechtliche Gegenmittel an die Hand geben will.

"DeepNude" funktionierte nur mit Frauen. Die App spuckte stets nackte Frauenkörper aus, selbst wenn der Input ein Mann war. Der anonyme Entwickler teilte mit, er habe seinen GAN-Algorithmus nur an Nacktfotos von Frauen trainiert – über 10.000 sollen es gewesen sein. Diese seien online leichter zu finden gewesen. Er habe aber vorgehabt, später auch noch eine Männer-Version zu schaffen.

Deepfakes sind kein neues Problem – manipulierte Medien gab es lange vor Künstlicher Intelligenz. Allerdings hat die Technik bestehende Trends beschleunigt und verbreitert, wie Sam Gregory, Programmdirektor beim Menschenrechtsprojekt Witness meint.

Mehr dazu bei Technology Review Online:

(bsc)