Medienbericht: Sexualisierte Deepfakes von Grok möglicherweise aus Kalkül

Die Erstellung sexueller KI-Bilder mit Grok könnte Methode haben, um die Popularität der Plattform X zu steigern. Die Washington Post liefert Anhaltspunkte.

vorlesen Druckansicht 6 Kommentare lesen
Silhouette Elon Musks hinter einem Smartphone mit dem Grok-Logo

(Bild: lilgrapher/Shutterstock.com)

Lesezeit: 5 Min.
Von
  • Andreas Knobloch

Die sexualisierten Deepfakes des KI-Chatbots Grok von xAI, die für Empörung in aller Welt sorgten, könnten absichtlich generiert worden sein, um das soziale Netzwerk X interessanter zu machen. Darauf deuten Dokumente und Aussagen von einem halben Dutzend früheren Mitarbeitern des Unternehmens, die der US-Tageszeitung Washington Post vorliegen.

Dem umfangreichen Zeitungsbericht zufolge erhielten Mitglieder des Human Data Teams von xAI, die eingestellt worden waren, um die Reaktionen von Grok auf Nutzer mitzugestalten, im Frühjahr vergangenen Jahres eine überraschende Verzichtserklärung von ihrem Arbeitgeber. In dieser wurden sie aufgefordert, sich zur Arbeit mit obszönen Inhalten, einschließlich sexueller Inhalte, zu verpflichten. Vielleicht sei das Unternehmen nun bereit, alle Inhalte zu produzieren, die Nutzer anziehen und binden könnten, so die damalige Befürchtung.

Seit der Chef des Mutterkonzerns X, Elon Musk, im Mai seine Position als Leiter der US-amerikanischen Effizienzbehörde DOGE aufgegeben hat, drängt er laut Aussagen zweier Mitarbeiter darauf, die Popularität von Grok zu steigern. Bei X, der Social-Media-Plattform, die früher als Twitter firmierte und 2022 von Musk gekauft wurde, warnten Sicherheitsteams die Geschäftsleitung in Besprechungen und Nachrichten demnach wiederholt, dass ihre KI-Tools es Nutzern ermöglichen könnten, sexuelle KI-Bilder von Kindern oder Prominenten zu erstellen. Zudem bestand das KI-Sicherheitsteam von xAI, das für die Verhinderung schwerwiegender Schäden durch Nutzer mithilfe der App zuständig ist, während des größten Teils des vergangenen Jahres aus nur zwei oder drei Personen, erklärten die von dem Blatt interviewten Insider. Konkurrenten wie OpenAI und andere Unternehmen beschäftigen in dem Bereich teilweise mehrere Dutzend Mitarbeiter.

Laut der Washington Post haben die größten KI-Unternehmen in der Regel zudem strenge Auflagen für die Erstellung oder Bearbeitung von KI-Bildern und -Videos. Damit soll genau verhindert werden, dass Nutzer Material über sexuellen Kindesmissbrauch oder gefälschte Inhalte über Prominente erstellen. xAI integrierte jedoch im Dezember seine Bearbeitungswerkzeuge in X und ermöglichte damit allen registrierten Nutzern die Erstellung von KI-Bildern. Dies wiederum führte laut David Thiel, früherer Chief Technology Officer des Stanford Internet Observatory, das Missbrauch in der Informationstechnologie untersucht, zu einer beispiellosen Verbreitung sexualisierter Bilder. Grok unterscheide sich völlig von der Funktionsweise anderer KI-Bildbearbeitungsdienste, so Thiel gegenüber der Washington Post. Auf Anfrage um Stellungnahme des Blattes reagierten weder X, Musk noch xAI.

Tatsächlich verwendeten X-Nutzer die Bildbearbeitungsfunktion des generativen KI-Systems Grok zunehmend, um Fotos von Frauen und sogar Minderjährigen digital zu entkleiden und sexualisierte Versionen der Aufnahmen zu erzeugen. Diese Deepfakes wurden öffentlich auf X gepostet, was zu heftiger weltweiter Empörung führte. Obwohl X behauptete, dass es sich nur um „vereinzelte Fälle“ gehandelt habe und ein ursächliches „Versagen der Sicherheitsvorkehrungen“ behoben wurde, hörte der Chatbot nicht mit der Generierung solcher Inhalte auf. Mehrere Staaten und die EU kritisierten das massiv und versprachen Gegenmaßnahmen. Der Generalstaatsanwalt von Kalifornien, die britische Kommunikationsaufsichtsbehörde und die Europäische Kommission leiteten Ermittlungen gegen xAI, X oder Grok wegen dieser Funktionen ein.

Videos by heise

In mindestens einer Hinsicht aber habe Musks Vorstoß für das Unternehmen funktioniert, schreibt die Washington Post. Die Kontroverse um das Entkleiden zog die Aufmerksamkeit der Öffentlichkeit auf Grok und X. Neben ChatGPT von OpenAI und Gemini von Google sei Grok in der Folge in die Top 10 des App Store von Apple aufgestiegen. Die durchschnittliche Anzahl der täglichen App-Downloads des KI-Chatbots stieg weltweit in den ersten drei Januarwochen, als der Skandal publik wurde, um 72 Prozent im Vergleich zum gleichen Zeitraum im Dezember. Das geht aus Zahlen des Marktforschungsunternehmens Sensor Tower hervor.

Nach dem weltweiten Aufschrei im Grok-Skandal hat xAI laut Washington Post Anstrengungen unternommen, mehr Mitarbeiter für das KI-Sicherheitsteam zu gewinnen, und Stellenanzeigen für neue sicherheitsorientierte Positionen veröffentlicht. Der Mutterkonzern X wiederum kündigte an, dass es Nutzern „in Ländern, in denen solche Inhalte illegal sind“ die Möglichkeit nehmen werde, Bilder von realen Personen in Bikinis, Unterwäsche und anderer freizügiger Kleidung zu erstellen; xAI würde dasselbe in der Grok-App tun. US-Nutzer konnten jedoch nach dieser Ankündigung weiterhin solche Bilder in der Grok-App erstellen, fand die Zeitung heraus. Auch entkleide der Chatbot von xAI immer noch bereitwillig Männer und produziere auf Anfrage intime Bilder, hat das US-amerikanische Tech-Portal The Verge herausgefunden.

Im Sommer vergangenen Jahres sorgte Grok mit antisemitischen Ausfällen für Aufsehen. Polens Regierung forderte die EU-Kommission darauf hin auf, mögliche Verstöße gegen den europäischen Digital Services Act (DSA) zu untersuchen.

(akn)