Der Fall Taylor Swift: Drei Möglichkeiten, gegen Deepfake-Pornografie vorzugehen

Deepfakes von Taylor Swift hatten sich jüngst rasant im Internet verbreitet. Um das Generieren von Deepfakes im Vorhinein zu verhindern, gibt es einige Tools.

In Pocket speichern vorlesen Druckansicht 166 Kommentare lesen
Taylor Swift

Sängerin Swift.

(Bild: dpa, Rolf Vennenbernd)

Lesezeit: 9 Min.
Von
  • Melissa Heikkilä
Inhaltsverzeichnis

Vergangene Woche gingen sexuell explizite Aufnahmen des Popstars Taylor Swift im Internet viral. Millionen von Menschen sahen sich auf Social-Media-Plattformen wie X von Unbekannten erstellte Deepfake-Pornos mit Swift an. Der Kurznachrichtendienst ergriff zwischenzeitlich drastische Maßnahmen, um die Verbreitung zu unterbinden – so wurden etwa alle Suchanfragen nach der Sängerin blockiert. Dies ist kein neues Phänomen: Deepfakes gibt es schon seit Jahren. Der Aufstieg der generativen KI in den letzten knapp zwei Jahren macht es jedoch deutlich einfacher, solche Inhalte – auch expliziter Art – zu erstellen.

So wird eine ganz neue Art der sexuellen Belästigung möglich – und der massiven Verletzung der Persönlichkeitsrechte. Besonders betroffen sind dabei Frauen, wie KI-Experte Henry Ajder sagt, der den Bereich synthetische Medien erforscht. Allerdings gibt es etwas Hoffnung: Neue Werkzeuge und Gesetze sollen es Personen erschweren, Deepfakes von Menschen als Waffe einzusetzen – und sie könnten auch dabei helfen, Täter zur Verantwortung zu ziehen. Die neuen Möglichkeiten betreffen drei zentrale Bereiche.

Soziale Plattformen sichten Beiträge, die hochgeladen werden, automatisiert und teilweise durch menschliche Content-Moderatoren – und entfernen Inhalte, die gegen ihre Richtlinien verstoßen. Dieser Prozess ist jedoch bestenfalls lückenhaft und lässt durchaus problematischen Content durch, wie die gefälschten Swift-Pornos auf X zeigen. Außerdem wird es immer schwerer, zwischen authentischen und KI-generierten Inhalten zu unterscheiden.

Eine technische Lösung könnte das sogenannte Watermarking sein. Unsichtbare digitale Wasserzeichen würden es dann Rechnern erlauben, ob eine Aufnahme mit KI generiert wurde oder nicht. Google hat beispielsweise längst ein System namens SynthID entwickelt, das mithilfe neuronaler Netze einzelne Bildpunkte in Bildern verändert und ein Wasserzeichen hinzufügt, das für das menschliche Auge nicht erkennbar ist. Diese Markierung soll auch dann ausgelesen werden können, wenn das Bild bearbeitet oder ein Screenshot davon angefertigt wurde. Theoretisch könnten solche Tools Social-Media-Unternehmen dabei helfen, ihre Moderation zu verbessern und gefälschte Inhalte, einschließlich problematischer Deepfakes, schneller zu erkennen.

Vorteile: Watermarking kann ein nützliches Werkzeug sein, mit dem sich KI-generierte Inhalte leichter und schneller erkennen lassen und schädliche Beiträge, die entfernt werden sollten, identifiziert werden können. Die standardmäßige Verwendung von Wasserzeichen in allen Bildern würde es böswilligen Akteuren außerdem erschweren, problematische Deepfakes zu erstellen, sagt Sasha Luccioni, Forscherin bei der KI-Firma Hugging Face, die sich mit dem Bias von KI-Systemen beschäftigt.

Nachteile: Watermarking ist noch experimentell und nicht weitverbreitet. Und ein entschlossener Angreifer kann sie immer noch manipulieren. Internetunternehmen und Softwareanbieter wenden die Technologie auch nicht flächendeckend auf alle Bilder an. Die Nutzer des KI-Bildgenerators Imagen von Google können beispielsweise selbst wählen, ob ihre KI-generierten Bilder mit einem Wasserzeichen versehen werden sollen oder nicht. Solche Faktoren schränken die Nützlichkeit der Technik bei der Bekämpfung von Deepfake-Pornos ein.

Im Moment sind alle Bilder, die wir online stellen, für jeden frei zugänglich, um gegebenenfalls Deepfakes zu erstellen. Und da die neuesten KI-Systeme, die Bilder erstellen, so ausgeklügelt sind, wird es immer schwieriger, zu beweisen, dass KI-generierte Inhalte tatsächlich gefälscht sind. Doch eine Reihe neuer Abwehrwerkzeuge ermöglicht es den Nutzern, ihre Bilder vor einer solchen Form der digitalen Ausbeutung zu schützen – KI-Systeme können Aufnahmen mit solchen Personen dann nur verzerrt oder entstellt darstellen.

Ein solches Tool namens PhotoGuard wurde von Forschern am MIT entwickelt. Es funktioniert wie eine Art Schutzschild, indem es die Bildpunkte in Fotos auf eine Weise verändert, die für das menschliche Auge unsichtbar ist. Wenn jemand eine KI-App wie den Bildgenerator Stable Diffusion verwendet, um ein mit PhotoGuard behandeltes Bild zu manipulieren, sieht das Ergebnis unrealistisch aus. Fawkes, ein ähnliches Tool, das von Forschern der University of Chicago entwickelt wurde, tarnt Bilder mit versteckten digitalen Signalen, die es Gesichtserkennungssoftware erschweren, Personen zu erkennen.

Ein weiteres neues Tool namens Nightshade könnte Menschen dabei helfen, sich gegen die Verwendung ihres Abbildes durch KI-Systeme zu wehren. Das von Forschern der Universität Chicago entwickelte Programm versieht Bilder mit einer unsichtbaren Schicht aus digitalem "Gift". Das Tool wurde entwickelt, um Künstler davor zu schützen, dass ihre urheberrechtlich geschützten Bilder von KI-Unternehmen ohne deren Zustimmung verwertet werden. Theoretisch könnte die Software jedoch für jedes Bild verwendet werden, von dem der Besitzer nicht möchte, dass es von KI-Systemen ausgewertet wird. Wenn Technikkonzerne ohne Zustimmung Trainingsmaterial aus dem Internet ziehen, würden diese vergifteten Bilder das KI-Modell stören. Und zwar ganz praktisch: Bilder von Katzen könnten zu Hunden werden – und Aufnahmen von Taylor Swift ebenso zu einem Tier, falls gewünscht.

Vorteile: Die neuen Werkzeuge erschweren es Angreifern, Bilder zur Erstellung schädlicher Inhalte zu verwenden. Sie sind spannend, wenn es darum geht, Privatpersonen vor dem Missbrauch mit KI-Bildern zu schützen – vor allem, wenn Dating-Apps und Social-Media-Unternehmen sie standardmäßig anwenden, sagt KI-Forscher Ajder. Luccioni stimmt zu: "Wir alle sollten Nightshade für jedes Bild verwenden, das wir im Internet veröffentlichen."

Nachteile: Diese Schutzsoftware funktioniert nur bei der aktuellen Generation von KI-Modellen. Es gibt jedoch keine Garantie, dass künftige Versionen diese Mechanismen nicht einfach aushebeln können. Die Technik funktioniert auch nicht bei Bildern, die bereits online sind – und sind bei Bildern von Prominenten schwieriger anzuwenden, da berühmte Menschen selten kontrollieren, welche Fotos von ihnen online hochgeladen werden. "Das wird ein gigantisches Katz- und Mausspiel", sagt Rumman Chowdhury, die das Beratungsunternehmen Parity Consulting für ethische KI leitet.

Und technische Maßen reichen ohnehin nicht aus. Das Einzige, was zu einer dauerhaften Veränderung führen wird, ist eine strengere Regulierung, sagt Luccioni. Virale Deepfakes wie die mit Taylor Swift haben den gesetzlichen Bemühungen, gegen solche Inhalte vorzugehen, in den USA neuen Auftrieb verliehen. Das Weiße Haus bezeichnete den Vorfall als "alarmierend" und forderte den Kongress auf, gesetzgeberische Maßnahmen zu ergreifen. Bislang wurde die Technologie nur stückweise und von US-Bundesstaat zu US-Bundesstaat reguliert. So haben beispielsweise Kalifornien und Virginia die Herstellung von pornografischen Deepfakes ohne Zustimmung verboten. New York und Virginia verbieten auch die Verbreitung dieser Art von Inhalten.

Doch nun könnte endlich auch auf Bundesebene etwas geschehen. Ein neuer parteiübergreifender Gesetzentwurf, der das Teilen von gefälschten Nacktbildern zu einer Straftat machen würde, wurde vor kurzem wieder in den US-Kongress eingebracht. Ein Deepfake-Porno-Skandal an einer High School in New Jersey hat die Gesetzgeber ebenfalls dazu veranlasst, mit einem Gesetzentwurf namens Preventing Deepfakes of Intimate Images Act zu reagieren. Die Aufmerksamkeit, die der Fall Swift auf das Problem gelenkt hat, könnte zu mehr parteiübergreifender Unterstützung führen.

Auch die Gesetzgeber auf der ganzen Welt drängen auf strengere Gesetze für diese Technologie. Das im vergangenen Jahr verabschiedete britische Online-Sicherheitsgesetz verbietet die Verbreitung von Deepfake-Pornos, nicht aber deren Erstellung. Den Tätern droht eine Gefängnisstrafe von bis zu sechs Monaten.

In der Europäischen Union wird das Problem mit einer Reihe neuer Gesetze aus verschiedenen Blickwinkeln angegangen. Der weitreichende AI Act verlangt von den Urhebern von Deepfakes, dass sie klar offenlegen, dass das Material von KI erstellt wurde, und das Gesetz über digitale Dienste verpflichtet Technologieunternehmen, schädliche Inhalte viel schneller zu entfernen.

Das chinesische Deepfake-Gesetz, das 2023 in Kraft trat, geht am weitesten. In China müssen Deepfake-Ersteller Maßnahmen ergreifen, um die Nutzung ihrer Dienste für illegale oder schädliche Zwecke zu verhindern, die Zustimmung der Nutzer einzuholen, bevor sie ihre Bilder zu Deepfakes machen, die Identitäten der Personen zu authentifizieren und KI-generierte Inhalte zu kennzeichnen.

Vorteile: Die Regulierung bietet den Opfern einen Rechtsbehelf, zieht die Urheber von Deepfake-Pornografie ohne Zustimmung zur Rechenschaft und hat eine starke abschreckende Wirkung. Sie sendet auch die klare Botschaft, dass die Erstellung von Deepfakes ohne Einwilligung nicht akzeptabel ist. Gesetze und Kampagnen zur Sensibilisierung der Öffentlichkeit, die deutlich machen, dass Menschen, die diese Art von Deepfake-Pornos erstellen, Sexualstraftäter sind, könnten eine echte Wirkung haben, sagt Ajder. "Das würde die etwas blasierte Haltung ändern, mit der manche Menschen diese Art von Inhalten als nicht schädlich oder nicht als eine echte Form des sexuellen Missbrauchs ansehen", sagt er.

Nachteile: Es wird schwierig sein, diese Art von Gesetzen durchzusetzen, sagt Ajder. Mit den derzeitigen Techniken wird es für die Opfer schwierig sein, den Täter zu identifizieren und einen Fall gegen diese Person aufzubauen. Die Person, die die Deepfakes erstellt, könnte sich auch in einer anderen Gerichtsbarkeit befinden, was die Strafverfolgung erschwert.

(jle)