„Widerlich“: Kritik an X wegen sexualisierter Deepfakes von Grok nimmt zu
Die Grok-KI erstellt weiter fleißig sexuelle Deepfakes von Frauen und Kindern, die Bilder sind öffentlich einsehbar. Immer mehr Staaten und die EU werden aktiv.
(Bild: miss.cabul/Shutterstock.com)
Die Europäische Union und Behörden in immer mehr Staaten untersuchen den Kurznachrichtendienst X und den dort angebotenen Bildgenerator der Grok-KI, weil sich damit direkt und öffentlich sexualisierte Deepfakes von Menschen und auch Kindern erzeugen lassen. Solche Resultate des sogenannten „Spicy Mode“ seien nicht „scharf“, sondern illegal, erklärte ein Sprecher der EU-Kommission: „Das ist empörend, das ist widerlich.“ Man sei bereits wegen früherer Skandale um Grok mit dem Kurznachrichtendienst von Elon Musk in Kontakt und nehme die neue Angelegenheit sehr ernst. Auch in Großbritannien, Indien und Malaysia haben Behörden Untersuchungen eingeleitet, Frankreich hat die generierten Bilder als „eindeutig illegal“ bezeichnet.
Aufregung überall auf der Welt
Hintergrund der jüngsten Aufregung um Grok sind Nutzer auf X, die den dort verfügbaren KI-Account dafür verwendet haben, Fotos von Frauen und sogar Minderjährigen digital „zu entkleiden“ und sexualisierte Versionen davon zu erzeugen. Die Bilder landen öffentlich auf dem Kurznachrichtendienst. Über den Account selbst hat X verbreiten lassen, dass es sich nur um „vereinzelte Fälle“ gehandelt habe, ein ursächliches „Versagen der Sicherheitsvorkehrungen“ sei behoben worden. Trotzdem kommt die KI entsprechenden Nutzeranfragen auch Tage nachdem die Öffentlichkeit auf das Verhalten aufmerksam geworden ist, weiterhin nach, das Profil der KI ist noch immer voll von derartigen Bildern.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
In Großbritannien hat die Medienaufsicht Ofcom „dringlichen Kontakt“ zu Elon Musks xAI aufgenommen, das inzwischen für X und Grok verantwortlich ist, berichtet die BBC. In Indien war schon vor dem Wochenende eine Untersuchung eingeleitet worden, dem US-Unternehmen war da eine Frist bis zum gestrigen Montag eingeräumt worden, um zu reagieren, schreibt CNBC. Auch in Malaysia sind Behörden demnach aktiv geworden und haben angekündigt, Vertreter von X einzubestellen. In Brasilien wurde dem Bericht zufolge bereits im Parlament gefordert, X bis zum Abschluss einer Untersuchung landesweit zu sperren.
Elon Musk selbst hatte am Wochenende behauptet, wer die KI für die Erschaffung von illegalen Inhalten nutze, werde dieselben Konsequenzen wie für das Hochladen illegaler Inhalte tragen. Zum gegenwärtigen Zeitpunkt sieht es aber nicht danach aus, als ob das tatsächlich Folgen hat. Als Grok im vergangenen Jahr begonnen hat, Antisemitismus und Holocaustleugnung zu verbreiten, war der KI-Account vorübergehend stummgeschaltet worden. Damals waren einige der beanstandeten Inhalte entfernt worden. Das hält man bei X dieses Mal offenbar nicht für nötig, laut CNBC kamen von zuständigen US-Behörden bisher auch keine solch harschen Äußerungen wie aus anderen Staaten oder der EU.
Kein neues Phänomen
Dass Menschen die verfügbaren und immer besser gewordenen KI-Bildgeneratoren dafür nutzen, Personen digital „zu entkleiden“ – also falsche, aber real aussehende sexualisierte Bilder zu erstellen – ist kein neues Phänomen. Lange ist das aber weitgehend außerhalb der Blicke der Öffentlichkeit geschehen, auch wenn sich daraus schon vor Jahren ein einträgliches Geschäftsfeld entwickelt hat. Das ging aber nur, weil die Verantwortlichen hinter der Technik dafür Geld genommen haben. Dass das auf X nun aber in aller Öffentlichkeit geschieht, komplett kostenfrei möglich ist und scheinbar folgenlos bleibt, ist eine neue Qualität. Betroffene Frauen berichten von einem Gefühl der Entmenschlichung, wenn ihre Fotos auf diesem Weg sexualisiert werden, ohne dass sie etwas dagegen tun können.
(mho)