KI-Update Deep-Dive: Gewalt durch Deepfakes
Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.
KI-generierte Pornobilder werden nicht nur von einem Weltstar wie Taylor Swift erstellt. Erschreckend viele Menschen sind Opfer dieser Art von Gewalt, erklärt Anna-Lena von Hodenberg, Geschäftsführerin von HateAid, im Podcast. Die gemeinnützige Organisation setzt sich für Menschenrechte und gegen Gewalt im Digitalen Raum ein. Studien kommen zu dem Ergebnis, dass rund 90 bis 95% aller Deepfakes nicht-einvernehmliche Pornographie betreffen, etwa 90% davon seien gegen Frauen gerichtet.
Vor vier Jahren hätten sich die ersten Frauen an HateAid gewandt, die manipulierte Bilder von sich auf Social-Media- oder Porno-Plattformen entdeckt hatten. Das Problem war, dass es keine Meldewege gab, um die Plattformen überhaupt zu erreichen. Und "wenn sie dann mal die Porno-Plattform erreicht haben und das gemeldet haben, dann wurde vielleicht ein Bild entfernt, aber im Prinzip war das nach zwei Tagen wieder da", erinnert sich von Hodenberg. Das hatte massive emotionale und psychische Folgen für die Betroffenen. "Bis heute können wir nicht sagen, die Bilder sind jetzt weg, es gibt immer das Potenzial, dass in einem, in zwei Jahren, in drei Jahren, wenn sie vielleicht an einem neuen Arbeitsplatz sind, wenn sie vielleicht einen neuen Partner kennengelernt haben, dass in irgendeiner Situation plötzlich diese Bilder wieder auftauchen."
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Durch generative KI hat dieses Problem eine ganz neue Dimension bekommen, betont die HateAid-CEO: "Früher war es aufwendig, Frauen in so ein Video hinein zu manipulieren, sodass das wirklich auch echt aussah. Jetzt gibt es Face-Swap-Apps, die erlauben es wirklich, mit drei Klicks einen Frauenkopf in ein pornografisches Video einzufügen." Es gibt Fälle, wo Minderjährige solche Deepfake-Pornobilder von Klassenkameradinnen angefertigt haben, schlicht, weil es so einfach ist.
HateAid setzt sich darum auch für strengere gesetzliche Vorgaben ein. Ginge es nach von Hodenberg, müsste "es schon im Design der einzelnen Produkte Vorkehrungen geben, dass eben solche Bilder damit nicht erstellt werden können. Wasserzeichen zu generieren ist eine Maßnahme, aber bestimmte Bilder überhaupt nicht erst zuzulassen, ist auch eine Maßnahme." Auch App-Stores sollten in die Pflicht genommen werden, derartige Angebote zu sperren.
Natürlich sind Porno-Deepfakes für die Betroffenen schrecklich. Doch Deepfakes stellen darüber hinaus eine Gefahr für unsere Demokratie dar. Von Hodenberg betont: "Was wir auf der ganzen Welt sehen, ist, dass Zweifel gesät werden, Zweifel in politischen Institutionen, in die Politik, in seriösen Journalismus, in Aktivisten, in Zivilgesellschaft. Diese Zweifel führen dazu, dass Menschen sich autoritären Tendenzen zuwenden, rechten und rechtsextremen Tendenzen vor allen Dingen." Darum müsse die Politik schnell handeln, denn wenn die Grenzen zwischen Wahrheit und Lüge verwischen, ist es vielleicht schon zu spät.
(igr)