Spanien: Jugendliche verbreiten KI-generierte Nacktbilder von Mädchen

Von fast zwei Dutzend Mädchen in Almendralejo kursierten KI-generierte Nacktbilder an ihren Schulen. 10 Jungen und eine KI-App sollen verantwortlich sein.

In Pocket speichern vorlesen Druckansicht 157 Kommentare lesen
Frauenhand an Smartphone

(Bild: BongkarnGraphic/Shutterstock.com)

Lesezeit: 3 Min.

In Spanien sorgt der Fall von fast zwei Dutzend Mädchen für Aufsehen, von denen an ihren Schulen und unter Gleichaltrigen KI-generierte Nacktbilder verbreitet wurden. Das berichtet die Tageszeitung El País und ergänzt, dass inzwischen 22 Minderjährige in Almendralejo betroffen seien. Das jüngste Mädchen ist demnach 11 Jahre alt, die älteste 17. Zum gegenwärtigen Zeitpunkt seien außerdem 10 Verdächtige identifiziert worden, die für die Bilder verantwortlich sein sollen. Benutzt haben die angeblich eine Smartphone-App, mit der fotografierte Personen "entkleidet" werden können. Ermittlungen laufen den Berichten zufolge bei der lokalen Polizei und der nationalen Datenschutzbehörde.

Seinen Ausgang genommen hat der Fall laut El País vor wenigen Tagen am ersten Schultag nach den Sommerferien. Eine 14-Jährige sei von einem Jungen angesprochen worden, der behauptet habe: "Ich habe ein Nacktfoto von dir gesehen." Nachdem sie ihrer Mutter davon erzählt und erklärt habe, dass eine KI-App dahintersteckt, habe die andere Mütter kontaktiert. Rasch seien 20 Betroffene ausfindig gemacht worden, Fälle gab es demnach an vier von fünf weiterführenden Schulen in der Stadt. Die hat etwa 33.000 Einwohner und liegt in der Extremadura an der Grenze zu Portugal. Eine der Mütter ist Gynäkologin und hat auf Instagram mehr als 130.000 Follower. Als sie dort ein Video teilte, in dem sie von dem Geschehen erzählte, zog das landesweite Aufmerksamkeit auf sich.

Inzwischen hat die Tageszeitung in Erfahrung gebracht, dass laut den Ermittlungen eine Gruppe von Jugendlichen aus dem Ort für die gefälschten Nacktfotos verantwortlich sein sollen. Sie sollen die Profilfotos der Mädchen aus Instagram und WhatsApp abgespeichert, aber in mindestens einem Fall auch selbst Fotos während eines Volleyballtrainings gemacht haben. Alle Bilder seien dann in eine KI-Anwendung hochgeladen worden, die damit wirbt, Menschen "ausziehen" zu können. Einer der Jungen habe aus den Bildern später sogar ein Video erstellt. Nicht alle der Familien hätten die fraglichen Bilder selbst gesehen, den Müttern sei aber "gesagt worden", dass sie existieren.

Die Anwendung selbst findet sich nicht in den App-Stores von Android und iOS, sondern muss manuell installiert werden, es gibt aber auch einen Telegram-Bot. In einem Fall sei ein Mädchen sogar damit erpresst worden. Von einem offenbar gefälschten Profil aus, sei Geld eingefordert worden. Als sie das abgelehnt habe, sei ihr das gefälschte Nacktbild geschickt worden und sie habe nichts anderes unternehmen können, als das Profil zu blockieren. Eine der Mütter wird mit den Worten zitiert, "wenn ich den Körper meiner Tochter nicht kennen würde, sähe das Bild für mich real aus". Auf Instagram versichert sie, man stehe in der Angelegenheit zusammen und werde das "JETZT BEENDEN".

Die mutmaßlich für die Generierung der falschen Nacktbilder genutzte Technik ist prinzipiell nicht neu, schon vor mehr als vier Jahren gab es erste Berichte über Onlinedienste, die gegen Bezahlung Menschen auf Fotos "ausziehen". Damals musste man aber noch ein Foto hochladen und 50 US-Dollar bezahlen. Inzwischen hat die Entwicklung der zugrunde liegenden KI-Technik einen Sprung gemacht und Anwendungen sind deutlich günstiger oder ganz kostenfrei. Bereits 2020 war bei einer ähnlichen Anwendung deutlich geworden, dass damit vor allem Fotos junger Mädchen nachbearbeitet werden, "einige auch ganz offensichtlich minderjährig".

(mho)