KI zieht Mädchen aus

Über Telegram verbreitet sich derzeit ungehindert ein Dienst, der ­Bilder von Kindern und Jugendlichen in Nacktfotos umwandelt – ohne deren Wissen.

In Pocket speichern vorlesen Druckansicht 435 Kommentare lesen

(Bild: Photo by Janelle Hiroshige on Unsplash)

Lesezeit: 5 Min.
Von
  • Karen Hao

Im Juni 2019 schrieb das Online-Magazin Vice über eine beunruhigende App namens DeepNude. Sie erlaubte es, ein Foto einer bekleideten Frau für 50 Dollar hochzuladen und kurze Zeit später ein künstlich generiertes Nacktfoto von ihr zurückzubekommen. Dies geschah mit sogenannten „Generative Adversarial Networks“ (GAN), wie sie für Deepfakes häufig benutzt werden. Die GAN tauschten die Kleidung der Frauen gegen hochrealistische nackte Körper. Je spärlicher das Opfer bekleidet war, desto besser. Bei Männern funktionierte das nicht.

Innerhalb von 24 Stunden hatte der Vice-Artikel eine solche Gegenreaktion hervorgerufen, dass die Entwickler der App sie schnell wieder aus dem Netz nahmen und per Twitter ankündigten, keine weiteren Versionen mehr zu veröffentlichen und niemandem Zugang zu ihrer Technologie zu verschaffen.

Nun aber hat die Cybersicherheitsfirma Sensity AI, die sich auf die Aufdeckung manipulierter Medien konzentriert, einen sehr ähnlichen Dienst entdeckt, berichtet Technology Review in seiner Dezember-Ausgabe (ab Donnerstag am Kiosk oder online erhältlich). Er läuft als Bot auf dem Messaging-Dienst Telegram und ist noch einfacher zu bedienen: Jeder kann dem Bot ein Foto schicken und erhält innerhalb von Minuten eine Nacktaufnahme zurück – kostenlos. Für 100 Rubel (etwa 1,11 Euro) lässt sich das Wasserzeichen entfernen oder die Verarbeitung beschleunigen.

Im Juli 2020 hatte der Bot bereits mindestens 100.000 Frauen entkleidet – die meisten von ihnen sind wahrscheinlich ahnungslos. „Normalerweise sind es junge Mädchen“, sagt Giorgio Patrini, Chef von Sensity. „Leider einige auch ganz offensichtlich minderjährige.“

Der Bot wurde am 11. Juli 2019 gestartet und läuft auf sieben Telegram-Kanälen, der größte davon mit mehr als 45000 Mitgliedern. Sie können unter anderem angeben, wie gut ihnen ein Nacktbild gefällt. Je besser es ankommt, desto größer ist die Belohnung für den Ersteller, das ist etwa der Zugang zu Premium-Funktionen des Bots. „Der Erzeuger des Bildes erhält einen Anreiz wie bei einem Spiel“, sagt Patrini.

Die leicht auffindbare Community ist im vergangenen Jahr stetig gewachsen. Eine Umfrage unter 7200 Nutzern ergab, dass etwa 70 Prozent von ihnen aus russischsprachigen Ländern kommen. Die Opfer stammen unter anderem aus Argentinien, Italien, Russland und den USA. Die meisten Bot-Benutzer kennen ihre Opfer nach eigenen Angaben persönlich oder haben Fotos von ihnen auf Instagram gefunden.

Patrini vermutet, dass der Bot erst der Anfang ist und solche Angriffe noch viel schlimmer werden könnten. So entdeckten er und seine Forscherkollegen etwa ein Ökosystem von mehr als 380 Seiten zur Erstellung und zum Austausch von Porno-Deepfakes auf der russischen Social-Media-Plattform VK. Die Plattform versprach gegenüber TR: „Wir werden eine zusätzliche Überprüfung durchführen und unangemessene Inhalte und Gemeinschaften blockieren.“

TR 12/2020

Dieser Beitrag stammt aus Ausgabe 12/2020 der Technology Review. Das Heft ist ab 5.11. 2020 im Handel sowie direkt im heise shop erhältlich. Highlights aus dem Heft:

Schon seit Längerem werden Pornobilder gegen Frauen eingesetzt. 2019 ergab eine Studie der American Psychological Association, dass eine von zwölf Frauen irgendwann in ihrem Leben Opfer von „Rachepornografie“ wird. In Australien, Großbritannien und Neuseeland soll sogar eine von vier Frauen betroffen sein, so eine Studie der australischen Regierung. Deepfake-Rachepornos sind damit eine neue Dimension der sexuellen Belästigung, weil die Opfer nicht einmal wissen, dass solche Bilder existieren.

Die Technologie wurde zuerst dazu genutzt, Prominente mit gefälschten Pornos zu mobben oder Journalistinnen zum Schweigen zu bringen. Patrini sagt, er habe mit Influencern gesprochen, von denen pornografische Bilder direkt an ihre Sponsoren geschickt wurden, was immensen emotionalen und finanziellen Stress bedeutet habe.

Die Forscher fanden heraus, dass der Entkleidungs-Algorithmus allmählich auch auf Videos angewandt wird, etwa auf Filmmaterial von Bikini-Models auf dem Lauf-steg. Derzeit muss der Algorithmus allerdings noch jedes einzelne Bild manipulieren. „Aber ich bin sicher, dass die Leute ihn perfektionieren und lizenzieren werden“, sagt Patrini.

Leider gibt es immer noch wenige Möglichkeiten, solche Aktivitäten zu stoppen. Die Forscher wandten sich mit ihren Erkenntnissen an Telegram und an die zuständigen Strafverfolgungsbehörden, darunter das FBI. Beides habe laut Patrini keine „spürbaren Auswirkungen“ gehabt. Immerhin wächst das Bewusstsein für die Problematik: Unternehmen wie Facebook und Google haben begonnen, ernsthafter in die automatische Erkennung von Deepfakes zu investieren. Und im vergangenen Jahr hat der US-Kongress einen Gesetzentwurf eingebracht, der es Opfern erleichtern soll, Schadenersatz wegen Rufschädigung einzuklagen.

Auch Sensity will laut Patrini das Thema weiterhin verfolgen und versuchen, mehr über die Motive der Täter und die Folgen für die Opfer zu erfahren. „Tatsächlich sind unsere Daten nur die Spitze des Eisbergs“, sagt er.

(bsc)