KI-generierte pornografische Bilder: Suche nach Taylor Swift eingeschränkt

Das Weiße Haus reagiert auf virale, KI-generierte, sexuell explizite Bilder von Taylor Swift und fordert Maßnahmen gegen Missbrauch.​

In Pocket speichern vorlesen Druckansicht 390 Kommentare lesen
Taylor Swift auf einem Konzert

(Bild: Brian Friedman/Shutterstock.com)

Update
Lesezeit: 2 Min.

KI-generierte sexuell explizite Bilder der US-amerikanischen Popsängerin Taylor Swift sind in der vergangenen Woche über den Kurznachrichtendienst X viral gegangen. Die Bilder, die laut 404 Media zuerst auf Plattformen wie 4chan und in einer Telegram-Gruppe aufgetaucht zu sein scheinen, sollen mithilfe von KI-Tools erstellt worden sein, darunter ein kostenloses KI-Tool zur Text-zu-Bild-Generierung von Microsoft.

Einige dieser Bilder erlangten auf X enorme Popularität mit Zehntausenden von Likes und Tausenden Weiterleitungen. Laut The Verge wurde eines der Bilder mehr als 45 Millionen Mal angesehen und mehr als 24.000 Mal weitergeleitet, bevor es von X entfernt wurde.

Suche nach Taylor Swift eingeschränkt

(Bild: X)

X hat reagiert und bestätigt, dass auch die Ergebnisse bei der Suche nach Taylor Swift vorübergehend eingeschränkt wurden, wie Joe Benarroch, Leiter des Geschäftsbetriebs von X dem Wall Street Journal sagt.

Update

Inzwischen hat X die Suche nach Taylor Swift eingeschränkt.

Fans von Taylor Swift starteten daraufhin eine Online-Kampagne unter dem Motto "protect Taylor Swift", um gegen die Verbreitung dieser Bilder vorzugehen und sie aus den Suchergebnissen zu entfernen. Trotz dieser Bemühungen sind einige der Bilder immer noch auf X zu finden.

Als Reaktion auf den Vorfall äußerte sich Karine Jean-Pierre, Sprecherin des Weißen Hauses, besorgt über die Verbreitung gefälschter Bilder von Taylor Swift. Sie betonte, dass solche Vorfälle vorwiegend Frauen und Mädchen überproportional betreffen. US-Präsident Joe Biden setzt sich daher dafür ein, das Risiko gefälschter Bilder durch exekutive Maßnahmen zu reduzieren.

Deepfakes stellen ein erhebliches Risiko für die Betroffenen dar, insbesondere für Frauen und Mädchen. Hierbei werden teils auch täuschend echte Videos erstellt, in denen das Gesicht einer Person auf den Körper einer anderen Person übertragen wird, häufig in pornografischen Kontexten. Diese Bilder oder Videos können ohne Einwilligung der abgebildeten Person erstellt und verbreitet werden, was zu erniedrigenden und traumatischen Erfahrungen führen kann. Opfer sollten auf jeden Fall Anzeige erstatten, nicht nur, um die Verbreitung des Materials zu stoppen, sondern auch um das Bewusstsein zu stärken.

(mack)