Mexiko: Student erstellt Intimbilder mit KI

In Mexiko wird ein Universitätsstudent beschuldigt, Tausende Social-Media-Fotos von Studentinnen mit KI verändert zu haben, um sie als Pornografie zu verkaufen.

In Pocket speichern vorlesen Druckansicht 117 Kommentare lesen
Verpixelte Porno-Bildchen

(Bild: Daniel AJ Sokolov)

Lesezeit: 4 Min.
Von
  • Andreas Knobloch

Mehrere Studentinnen der Höheren Schule für Handel und Verwaltung (ESCA) des Nationalen Polytechnischen Instituts (Instituto Politécnico Nacional) in Mexiko-Stadt haben ihren Kommilitonen Diego N. angezeigt, der Tausende mit künstlicher Intelligenz (KI) erstellte Nacktbilder von Frauen besessen und verbreitet haben soll.

Die Frauen erstattenen Anfang Oktober insgesamt acht Anzeigen bei der Generalstaatsanwaltschaft von Mexiko-Stadt (FGJ-CDMX), wie mexikanische Tageszeitungen berichten. Diego N. soll demnach aus den persönlichen sozialen Netzwerken der Beschwerdeführerinnen und anderer Studierender Fotos entnommen und mit KI verändert haben, um sie als explizite Inhalte im Internet zu verkaufen.

Auf dem Tablet des Beschuldigten wurden mehr als 20.000 Fotos gefunden, die ohne die Zustimmung der Opfer verändert und über private Gruppen auf Telegram verbreitet und verkauft wurden, wo die Inhalte anderen Studierenden angeboten wurden. Die Cybereinheit der ermittelnden Polizeibehörde werde eine umfassende Überprüfung der auf den Mobilgeräten der untersuchten Person gefundenen Bilder vornehmen, hieß es von offizieller Seite.

Der Beschuldigte wurde kurzzeitig inhaftiert, dann aber wieder auf freien Fuß gesetzt, was viel Kritik hervorrief. Die betroffenen Frauen beklagten, dass sie sich von den Behörden reviktimisiert fühlten, da der Beschuldigte trotz der Zeugenaussagen der Opfer und des Vorhandenseins von Beweisen freigelassen wurde.

"Wir fordern die Verpflichtung aller IPN-Behörden, fahrlässige Handlungen nicht zu wiederholen. Wenn die sexuelle Intimität verletzt wird, werden nicht nur die Privatsphäre und die Menschenrechte von Frauen im digitalen Raum beeinträchtigt, sondern diese sexuelle Gewalt hat auch psychische und physische Auswirkungen, die oft die akademische Entwicklung, die Mobilität, die freie Entfaltung der Persönlichkeit, die Sicherheit innerhalb und außerhalb des Klassenzimmers behindern und sogar das eigene Leben bedrohen können", heißt es in einer Erklärung der Studierenden.

Seit Januar 2020 sind das Strafgesetzbuch der Hauptstadt Mexiko-Stadt und das Gesetz über den Zugang von Frauen zu einem gewaltfreien Leben, das so genannte Olimpia-Gesetz, so reformiert worden, dass die Verbreitung von Bildern mit sexuellem Inhalt ohne die Zustimmung der betroffenen Person unter Strafe gestellt wird. Das Gesetz sieht Strafen von drei bis sechs Jahren Haft für diejenigen vor, die diese Handlungen begehen. Vor zwei Jahren, im Jahr 2021, war zum ersten Mal ein Mann in Mexiko wegen der Verbreitung intimer Fotos von Frauen verhaftet worden. Bekannt wurde die Gesetzgebung durch Olimpia Coral Melo, eine junge Frau aus Puebla, die sich für die Gesetzesreform einsetzte, nachdem sie Opfer von digitaler Gewalt geworden war. Als sie 18 Jahre alt war, stellte ihr damaliger Freund ein Video von ihnen beim Sex in die sozialen Medien.

Bei dem aktuellen Fall um Diego N. geht es um sogenannte Deepfakes. Darunter werden zunehmend realistisch wirkende Fotos, Audios oder Videos verstanden, in denen Personen mithilfe von KI-Systemen in neue Kontexte gestellt werden. Oft werden Dritten etwa Worte in den Mund gelegt, die sie so niemals gesagt haben. Es geht dabei um alle möglichen Arten von Betrug.

Wissenschaftler im Auftrag des EU-Parlaments warnten bereits vor zwei Jahren vor der Gefahr von Deepfakes für die Demokratie. Häufig gehe es bei Deepfakes um Identitätsdiebstahl. Insbesondere Frauen seien damit einem erhöhten Risiko der Verleumdung, Einschüchterung und Erpressung ausgesetzt. Die Technik wird auch immer wieder dazu verwendet, Gesichter von Opfern mit denen von Darstellern in Porno-Videos auszutauschen. Und eine App namens "DeepNude" nutzte Bilder von Frauen, um diese virtuell "auszuziehen", also die Kleidung der Frau auf dem Bild durch einen computergenerierten nackten Körper auszutauschen.

(akn)