zurĂŒck zum Artikel

KI zieht MĂ€dchen aus

Karen Hao

(Bild: Photo by Janelle Hiroshige on Unsplash)

Über Telegram verbreitet sich derzeit ungehindert ein Dienst, der ­Bilder von Kindern und Jugendlichen in Nacktfotos umwandelt – ohne deren Wissen.

Im Juni 2019 schrieb das Online-Magazin Vice ĂŒber eine beunruhigende App namens DeepNude. Sie erlaubte es, ein Foto einer bekleideten Frau fĂŒr 50 Dollar hochzuladen und kurze Zeit spĂ€ter ein kĂŒnstlich generiertes Nacktfoto von ihr zurĂŒckzubekommen. Dies geschah mit sogenannten „Generative Adversarial Networks“ (GAN), wie sie fĂŒr Deepfakes hĂ€ufig benutzt werden. Die GAN tauschten die Kleidung der Frauen gegen hochrealistische nackte Körper. Je spĂ€rlicher das Opfer bekleidet war, desto besser. Bei MĂ€nnern funktionierte das nicht.

Innerhalb von 24 Stunden hatte der Vice-Artikel eine solche Gegenreaktion hervorgerufen, dass die Entwickler der App sie schnell wieder aus dem Netz nahmen und per Twitter ankĂŒndigten, keine weiteren Versionen mehr zu veröffentlichen und niemandem Zugang zu ihrer Technologie zu verschaffen.

Nun aber hat die Cybersicherheitsfirma Sensity AI, die sich auf die Aufdeckung manipulierter Medien konzentriert, einen sehr Ă€hnlichen Dienst entdeckt, berichtet Technology Review in seiner Dezember-Ausgabe (ab Donnerstag am Kiosk oder online erhĂ€ltlich [1]). Er lĂ€uft als Bot auf dem Messaging-Dienst Telegram und ist noch einfacher zu bedienen: Jeder kann dem Bot ein Foto schicken und erhĂ€lt innerhalb von Minuten eine Nacktaufnahme zurĂŒck – kostenlos. FĂŒr 100 Rubel (etwa 1,11 Euro) lĂ€sst sich das Wasserzeichen entfernen oder die Verarbeitung beschleunigen.

Im Juli 2020 hatte der Bot bereits mindestens 100.000 Frauen entkleidet – die meisten von ihnen sind wahrscheinlich ahnungslos. „Normalerweise sind es junge MĂ€dchen“, sagt Giorgio Patrini, Chef von Sensity. „Leider einige auch ganz offensichtlich minderjĂ€hrige.“

Der Bot wurde am 11. Juli 2019 gestartet und lĂ€uft auf sieben Telegram-KanĂ€len, der grĂ¶ĂŸte davon mit mehr als 45000 Mitgliedern. Sie können unter anderem angeben, wie gut ihnen ein Nacktbild gefĂ€llt. Je besser es ankommt, desto grĂ¶ĂŸer ist die Belohnung fĂŒr den Ersteller, das ist etwa der Zugang zu Premium-Funktionen des Bots. „Der Erzeuger des Bildes erhĂ€lt einen Anreiz wie bei einem Spiel“, sagt Patrini.

Mehr von MIT Technology Review Mehr von MIT Technology Review [2]

Die leicht auffindbare Community ist im vergangenen Jahr stetig gewachsen. Eine Umfrage unter 7200 Nutzern ergab, dass etwa 70 Prozent von ihnen aus russischsprachigen LÀndern kommen. Die Opfer stammen unter anderem aus Argentinien, Italien, Russland und den USA. Die meisten Bot-Benutzer kennen ihre Opfer nach eigenen Angaben persönlich oder haben Fotos von ihnen auf Instagram gefunden.

Patrini vermutet, dass der Bot erst der Anfang ist und solche Angriffe noch viel schlimmer werden könnten. So entdeckten er und seine Forscherkollegen etwa ein Ökosystem von mehr als 380 Seiten zur Erstellung und zum Austausch von Porno-Deepfakes auf der russischen Social-Media-Plattform VK. Die Plattform versprach gegenĂŒber TR: „Wir werden eine zusĂ€tzliche ÜberprĂŒfung durchfĂŒhren und unangemessene Inhalte und Gemeinschaften blockieren.“

TR 12/2020

Dieser Beitrag stammt aus Ausgabe 12/2020 der Technology Review. Das Heft ist ab 5.11. 2020 im Handel sowie direkt im heise shop erhÀltlich. Highlights aus dem Heft:

Schon seit LĂ€ngerem werden Pornobilder gegen Frauen eingesetzt. 2019 ergab eine Studie der American Psychological Association, dass eine von zwölf Frauen irgendwann in ihrem Leben Opfer von „Rachepornografie“ wird. In Australien, Großbritannien und Neuseeland soll sogar eine von vier Frauen betroffen sein, so eine Studie der australischen Regierung. Deepfake-Rachepornos sind damit eine neue Dimension der sexuellen BelĂ€stigung, weil die Opfer nicht einmal wissen, dass solche Bilder existieren.

Die Technologie wurde zuerst dazu genutzt, Prominente mit gefÀlschten Pornos zu mobben oder Journalistinnen zum Schweigen zu bringen. Patrini sagt, er habe mit Influencern gesprochen, von denen pornografische Bilder direkt an ihre Sponsoren geschickt wurden, was immensen emotionalen und finanziellen Stress bedeutet habe.

Die Forscher fanden heraus, dass der Entkleidungs-Algorithmus allmĂ€hlich auch auf Videos angewandt wird, etwa auf Filmmaterial von Bikini-Models auf dem Lauf-steg. Derzeit muss der Algorithmus allerdings noch jedes einzelne Bild manipulieren. „Aber ich bin sicher, dass die Leute ihn perfektionieren und lizenzieren werden“, sagt Patrini.

Leider gibt es immer noch wenige Möglichkeiten, solche AktivitĂ€ten zu stoppen. Die Forscher wandten sich mit ihren Erkenntnissen an Telegram und an die zustĂ€ndigen Strafverfolgungsbehörden, darunter das FBI. Beides habe laut Patrini keine „spĂŒrbaren Auswirkungen“ gehabt. Immerhin wĂ€chst das Bewusstsein fĂŒr die Problematik: Unternehmen wie Facebook und Google haben begonnen, ernsthafter in die automatische Erkennung von Deepfakes zu investieren. Und im vergangenen Jahr hat der US-Kongress einen Gesetzentwurf eingebracht, der es Opfern erleichtern soll, Schadenersatz wegen RufschĂ€digung einzuklagen.

Auch Sensity will laut Patrini das Thema weiterhin verfolgen und versuchen, mehr ĂŒber die Motive der TĂ€ter und die Folgen fĂŒr die Opfer zu erfahren. „TatsĂ€chlich sind unsere Daten nur die Spitze des Eisbergs“, sagt er.

(bsc [10])


URL dieses Artikels:
https://www.heise.de/-4944506

Links in diesem Artikel:
[1] https://shop.heise.de/technology-review-12-2020/Print?wt_mc=intern.shop.shop.tr_2012.t1.textlink.textlink
[2] https://www.heise.de/
[3] https://www.heise.de/select/tr/2020/12/2028014442848290338
[4] https://www.heise.de/select/tr/2020/12/2028014470528702578
[5] https://www.heise.de/select/tr/2020/12/2028014543076697466
[6] https://www.heise.de/select/tr/2020/12/2028014483836740021
[7] https://www.heise.de/select/tr/2020/12/2028015060830777606
[8] https://www.heise.de/select/tr/2020/12/2028015075594244025
[9] https://shop.heise.de/technology-review-12-2020/Print?wt_mc=intern.shop.shop.tr_2012.dos.textlink.textlink
[10] mailto:bsc@heise.de