Oversight Board prüft Metas Vorgehen bei KI-generierten Bildern nackter Frauen

Bei Facebook und Instagram wurden freizügige KI-Bilder berühmter Frauen veröffentlicht. Das unabhängige Kontrollgremium Metas hat eine Untersuchung eingeleitet.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Deepfake-Schriftzug vor Handy in Menschenhand

(Bild: Skorzewiak/shutterstock.com)

Lesezeit: 4 Min.
Von
  • Frank Schräer
Inhaltsverzeichnis

Das Oversight Board von Meta Platforms untersucht das Vorgehen des Unternehmens bei KI-generierten Bildern und Videos berühmter Persönlichkeiten. Zwei Fälle haben das unabhängige Kontrollgremium dazu veranlasst. Es geht um freizügige Darstellungen einer bekannten indischen und einer berühmten US-amerikanischen Frau, die mit Methoden Künstlicher Intelligenz erstellt wurden.

Das Oversight Board nennt keine Namen, aber es dürfte sich in einem Fall um Taylor Swift handeln. Anfang dieses Jahres waren KI-generierte, sexuell explizite Bilder der US-Sängerin in sozialen Netzwerken aufgetaucht, die massiv viral gegangen sind. Die Betreiber der Plattformen sahen sich genötigt, die Suche nach Taylor Swift und die weitere Verbreitung der KI-generierten pornografischen Bilder einzuschränken. Sogar das Weiße Haus reagierte und forderte Maßnahmen gegen solchen Missbrauch, insbesondere von Frauen.

Jetzt hat das Oversight Board Metas eine Untersuchung dieser Vorfälle eingeleitet. Das Oversight Board ist ein von Meta eingerichtetes, aber unabhängiges Gremium, das sich mit kritischen Fällen des sozialen Netzwerks befassen soll. Die Empfehlungen des Kontrollgremiums zu Maßnahmen und Regeln sind zwar nicht bindend für den Facebook-Betreiber, aber der Konzern muss innerhalb von 60 Tagen darauf reagieren.

Während der Untersuchung durch das Oversight Board gibt es auch eine Möglichkeit zum Austausch. Jeder kann sich mittels eines Formulars zu dem Fall und den Richtlinien äußern. In diesem Fall bittet das Gremium aber darum, dass in öffentlichen Kommentaren keine Namen genannt werden oder über die Identität der dargestellten Personen spekuliert wird, um deren Rechte zu respektieren und das Risiko einer weiteren Belästigung dieser Frauen zu verringern.

Das Oversight Board erklärt in der Beschreibung der Fälle, wie Meta zunächst darauf reagierte. Nachdem das KI-generierte Bild einer nackten indischen Frau bei Instagram gepostet wurde, hat ein Nutzer dies bei Meta wegen Pornografie gemeldet. Dieser Fall wurde aber nach 48 Stunden wieder geschlossen, weil sich niemand bei Meta damit befasst hat. Derselbe Nutzer legte Berufung gegen die Schließung des Falls ein, doch auch dies wurde automatisch geschlossen und der betroffene Inhalt war weiterhin verfügbar. Der Nutzer wendete sich dann an das Kontrollgremium, das sich des Falls angenommen hat. Daraufhin entschied Meta, dass die Entscheidung, das Bild nicht zu löschen, ein Fehler war, und hat den Beitrag aufgrund eines Verstoßes gegen die Richtlinien zu Mobbing und Belästigung entfernt.

Im Fall der US-amerikanischen Frau wurde das KI-generierte Nacktbild in eine Facebook-Gruppe für KI-Kreationen gepostet. Der Name der Frau wurde im Untertitel genannt. Da das Bild zuvor bereits von einem anderen Nutzer gepostet wurde, hat Meta dies selbst entfernt, mit dem Hinweis auf dieselben Richtlinien. Gleichzeitig wurde das Bild zu Metas Bilddatenbank hinzugefügt, um ähnliche Bilder automatisch finden und löschen zu können. Allerdings hat der Nutzer, der das Bild gepostet hat, gegen die Löschung protestiert, aber auch dessen Fall wurde automatisch geschlossen. Daraufhin wendete sich der Nutzer an das Oversight Board, um diesen Fall zu klären.

"Deepfake-Pornografie ist ein wachsender Grund für geschlechtsspezifische Belästigung im Internet und wird immer häufiger eingesetzt, um Frauen gezielt zum Schweigen zu bringen und einzuschüchtern – sowohl online als auch offline", erklärte Helle Thorning-Schmidt, ehemalige Ministerpräsidentin Dänemarks und seit Mai 2020 Co-Vorsitzende des Oversight Boards. Laut Bloomberg sagte sie weiter: "Es ist von entscheidender Bedeutung, dass diese Angelegenheit angegangen wird, und das Gremium hält es für wichtig, zu untersuchen, ob die Richtlinien und Durchsetzungspraktiken von Meta dieses Problem wirksam angehen."

Meta und andere Plattformbetreiber haben sich zuletzt schwergetan mit der Moderation der Beiträge aufgrund einer Schwemme von irreführendem und KI-generiertem Content. Im letzten Herbst prüfte das Oversight Board ein manipuliertes Biden-Video, das den US-Präsidenten als pädophil darstellt. Das im Grunde harmlose Video zeigt Joe Biden, der seiner Enkelin einen Aufkleber über die Brust klebt. Es war offenbar durch Metas Richtlinien gerutscht, weil lediglich die Beschriftung und die musikalische Vertonung manipuliert waren. Die Regeln Metas waren letztlich nicht ausreichend für eine Löschung, denn nach Prüfung bleibt das Video der vermeintlich pädophilen Biden online.

(fds)