„Abgründe der Verderbtheit“: Neue Einblicke in KI-generierte Deepfakes von Grok

Eine Forscherin hat nachgezählt, wie viele sexualisierte Deepfakes Grok pro Stunde generiert. Zudem gibt es Einblicke in das, was die KI nicht öffentlich macht.

vorlesen Druckansicht 180 Kommentare lesen
Zwei Finger tippen auf einem Smartphone auf die Grok-App

(Bild: Talukdar David/Shutterstock.com)

Lesezeit: 4 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Der KI-Chatbot Grok wurde zuletzt dafür benutzt, öffentlich auf X jede Stunde tausende sexualisierte Deepfakes, primär von Frauen, zu erstellen – fast 100 Mal so viele solcher Bilder wie auf fünf anderen dafür genutzten Plattformen zusammen. Das hat eine 24-stündige Analyse einer Deepfake-Forscherin ergeben, deren Ergebnis die Nachrichtenagentur Bloomberg zusammenfasst. Damit gibt es für das seit Tagen diskutierte Problem jetzt auch konkrete Zahlen. Unterdessen hat das US-Magazin Wired darauf hingewiesen, dass Inhalte, die der Chatbot von Elon Musks KI-Firma auf einer eigenen Website generiert, noch viel problematischer sind. Das deuten von Google indexierte und in der Suche auffindbare Inhalte an, die Nutzer erstellt haben. Eigentlich sind diese nicht öffentlich.

Wie Bloomberg erläutert, hat die Forscherin Genevieve Oh für ihre Analyse des X-Accounts von Grok dessen Antworten in einem 24 Stunden langen Zeitraum Anfang der Woche analysiert. Das Ausmaß der dort öffentlich und in den meisten Fällen ohne Zustimmung der Abgebildeten generierten sexuellen Fake-Bilder sei „beispiellos“, zitiert die Nachrichtenagentur eine Anwältin, die sich mit der Thematik auskennt. Es habe bis jetzt keine Technik gegeben, die die Generierung von täuschend echt aussehenden, aber falschen Aufnahmen fast nackter Personen so einfach macht und welche gleichzeitig so weit verbreitet ist. Auf dem Kurznachrichtendienst X kann man dem Chatbot ein Foto schicken und um eine Version bitten, in der die gezeigte Person fast keine Kleidung anhat. Grok kommt dem weiter nach.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Die sexualisierten Deepfakes von Grok sorgen seit Tagen für Empörung in aller Welt. Nutzer verwenden den KI-Account sogar, um Fotos von Minderjährigen digital „zu entkleiden“. Die Erstellung dieser sexualisierten Aufnahmen ist ohne Einverständnis der Betroffenen möglich, die Ergebnisse landen öffentlich einsehbar auf dem Kurznachrichtendienst. Obwohl X über den KI-Account die Behauptung hat verbreiten lassen, dass es sich nur um „vereinzelte Fälle“ gehandelt habe und ein ursächliches „Versagen der Sicherheitsvorkehrungen“ behoben wurde, hört der Chatbot nicht mit der Generierung auf. Mehrere Staaten und die EU haben das teils massiv kritisiert und Gegenmaßnahmen versprochen; tatsächliche Konsequenzen gibt es aber weiterhin nicht.

Derweil hat das US-Magazin Wired entdeckt, dass eine Lücke auf der Website von Grok noch deutlich verstörendere Inhalte verrät, die Nutzer dort erstellen lassen. Diese gehen wohl davon aus, dass das nicht öffentlich ist. Im Sommer war aber publik geworden, dass dort generierte KI-Inhalte von Google indexiert werden, wenn sie mithilfe des „Teilen“-Buttons etwa über Messenger verbreitet werden. In diesen Inhalten finden sich fotorealistische KI-generierte Videoclips mit sexualisierten Deepfakes, auf denen noch Blut hinzukommt. Auch Clips, die scheinbar prominente Frauen zeigen, gehören demnach dazu. Sogar kurze Filme, die scheinbar Minderjährige zeigen, gibt es, hat die KI-Forschungsorganisation AI Forensics herausgefunden. Derartige Inhalte lassen sich direkt per Google finden.

„Es fühlt sich an, als wären wir von einer Klippe gestürzt und würden jetzt im freien Fall in die Abgründe der menschlichen Verderbtheit stürzen“, zitiert Wired die Einschätzung der Rechtsprofessorin Clare McGlynn, die sich mit bildbasiertem Missbrauch beschäftigt. „Unmenschliche Impulse“ einiger Menschen würden durch die Technik ohne Schutzvorkehrungen oder ethische Grenzen ermutigt. Unklar ist, ob und welche Maßnahmen die KI-Generierung von illegaler Pornografie – etwa zu Missbrauch – verhindert. Auf X müsse man sich wenigstens einloggen, um bestimmte Inhalte zu sehen, bei Grok gebe es augenscheinlich überhaupt keine Zugriffskontrolle. Gleichzeitig hat Wired Internetforen gefunden, in denen Personen sich darüber austauschen, wie sie die Grok-KI dazu bekommen, jegliche Inhalte zu generieren.

(mho)