Sexualisierte Deepfakes von Grok: Betroffene Minderjährige klagen in den USA
In den USA haben drei Personen Klage gegen xAI eingereicht, nachdem deren KI-Chatbot Grok sexualisierte Nacktbilder von ihnen generiert haben soll.
(Bild: lilgrapher/Shutterstock.com)
In den USA haben drei Personen Klage gegen das KI-Unternehmen xAI von Elon Musk eingereicht, weil dessen KI-Chatbot Grok sexualisierte Deepfakes von ihnen erstellt haben soll, während sie minderjährig waren. Das hat die Washington Post publik gemacht und erklärt, dass zwei der drei Klagenden noch minderjährig sind, die dritte Person ist demnach inzwischen volljährig. Allen drei stünde jetzt ein Leben bevor, in dem sie immer wieder darauf hingewiesen würden, dass vorgebliche Nacktbilder von ihnen im Internet geteilt würden. Und das nur, weil xAI und Elon Musk eine Gelegenheit gesehen hätten, „aus der sexuellen Ausbeutung realer Menschen, darunter auch Kinder, Profit zu schlagen“, zitiert die Zeitung aus der Klage.
Betroffene werden ein Leben lang daran erinnert
Laut der Zusammenfassung hat sich einer der Vorfälle schon im vergangenen Jahr ereignet, also Wochen bevor die sexualisierten Deepfakes von Grok weltweit zu einem Aufreger wurden. Die Klägerin wurde demnach darauf aufmerksam gemacht, dass auf Discord Nacktbilder von ihr verbreitet wurden. Dort habe sie nicht nur die mithilfe der KI manipulierten Aufnahmen von sich selbst, sondern von mindestens 18 weiteren Mädchen gefunden, die sie von ihrer Schule gekannt habe. Die inzwischen festgenommene Person soll die Deepfakes als Tauschware auf Telegram benutzt haben, um an sexualisierte Bilder anderer Minderjähriger zu gelangen.
Die anderen Klägerinnen haben demnach im Februar erfahren, dass der Tatverdächtige auch von ihnen vorgebliche Nacktbilder erstellt und dafür Grok genutzt hat. Alle drei wurden in eine Datenbank zu Kindesmissbrauch aufgenommen und werden deshalb zeit ihres Lebens informiert, wenn die Deepfakes von ihnen in einem Strafverfahren auftauchen, erklärt die Anwaltskanzlei, die sie vertritt. „Es handelt sich um Kinder, deren Schul- und Familienfotos durch das KI-Tool eines milliardenschweren Unternehmens in Material über sexuellen Kindesmissbrauch umgewandelt und anschließend unter Pädophilen gehandelt wurden“, heißt es da weiter. Ohne xAI „hätten diese schädlichen Inhalte niemals existieren können“. Für jedes betroffene Kind werde man die Firma zur Rechenschaft ziehen.
Videos by heise
Die sexualisierten Deepfakes von Grok haben Anfang des Jahres für Empörung gesorgt. Schon da war klar, dass Nutzer den KI-Account auf X auch dafür verwendet haben, um Fotos von Minderjährigen digital „zu entkleiden“. Die Erstellung dieser sexualisierten Aufnahmen war ohne Einverständnis der Betroffenen möglich, die Ergebnisse waren öffentlich einsehbar auf dem Kurznachrichtendienst. Der hat dann die Behauptung verbreiten lassen, dass es sich nur um „vereinzelte Fälle“ gehandelt habe, gezählt wurden aber Millionen Bilder. Mehrere Staaten und die EU haben das Geschehen teils massiv kritisiert und Gegenmaßnahmen versprochen. xAI hat die Funktion schließlich eingeschränkt. Aber verhindert wird die Generierung solcher Inhalte trotzdem nicht zuverlässig.
(mho)