Youtube: Deepfake-Schutz für Politiker und Journalisten

Creator, Politiker und Journalisten bekommen bei Youtube ein Tool zur Seite gestellt, um Deepfakes von sich zu finden und zu melden.

vorlesen Druckansicht 3 Kommentare lesen
YouTube-Logo an einer Gebäudefront

(Bild: Claudio Divizia/Shutterstock.com)

Lesezeit: 3 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

„Likeness detection“ ist ein Werkzeug, um, wie der Name sagt, Ähnlichkeiten zu finden. Gemeint sind zunächst allerdings nur deutliche Ähnlichkeiten zu bekannten Persönlichkeiten. Diese sollen damit Deepfakes von sich auf YouTube finden und melden können.

Das Tool funktioniert ähnlich wie Content-ID. Damit können Inhalte gesucht werden, die den eigenen Inhalten entsprechen. Nun stehen also Gesichter im Vordergrund. Allerdings kann nicht jeder eine solche Suche nach Deepfakes von sich starten. Erste Creator aus dem YouTube-Partnerprogramm konnten die „likeness detection“ bereits seit einigen Monaten testen. Nun können sich auch Politiker und Journalisten für die Testphase anmelden. Dazu müssen sie sich identifizieren.

Betroffene können gefundene Deepfakes auf der Plattform dann melden. Wenn diese gegen die Richtlinien von YouTube verstoßen, werden sie gelöscht. Es ist also nicht so, dass jede Nutzung eines fremden Gesichts auch automatisch einen Verstoß darstellt. Erlaubt können etwa satirische Inhalte sein. „YouTube hat eine lange Tradition darin, freie Meinungsäußerung und Inhalte von öffentlichem Interesse zu schützen – darunter auch Parodien und Satire, selbst wenn diese zur Kritik an Staats- und Regierungschefs oder einflussreichen Persönlichkeiten verwendet werden“, steht im Blogbeitrag. Anträge auf das Löschen von Inhalten würden sehr sorgfältig geprüft.

Videos by heise

Nicht erlaubt sind auf der Plattform KI-Nachahmungen von Personen, die dazu dienen, andere Menschen zu beeinflussen oder gar zu manipulieren. Freilich ginge das besonders gut mit bekannten und gegebenenfalls mächtigen Persönlichkeiten, wie etwa Politikern.

YouTube bekräftigt im Blogbeitrag auch, dass sie starke Verfechter des sogenannten „No Fakes Act“ seien. Das ist ein US-Gesetzentwurf, der den Schutz vor der unerlaubten Nutzung von Stimme oder Abbild einer Person regeln soll. Der Entwurf wird parteiübergreifend unterstützt.

Auch in Deutschland gibt es Bestrebungen, die Gesetze anzupassen. Im Fokus stehen pornografische Deepfakes, die vor allem Frauen und Kinder zeigen. Bundesjustizministerin Stefanie Hubig möchte das Strafrecht nachschärfen und an digitale Bildmanipulationen anpassen, sowie es Opfern leichter machen, Fälle anzuzeigen. Noch im Frühjahr soll ein Gesetzesentwurf dazu vorliegen.

Bisher gibt es kein spezielles Gesetz, das Deepfakes behandelt. Stattdessen sieht beispielsweise der Digital Services Act (DSA) auf europäischer Ebene vor, dass Deepfakes gekennzeichnet werden müssen, wenn die Inhalte fälschlicherweise für echt gehalten werden können. Das betrifft dann also die Anbieter von KI-Tools und Plattformen, im Zweifel jedoch nicht die Personen, die für die Erstellung zuständig sind.

Betroffene können sich auf ihre Persönlichkeitsrechte berufen. Um Unterlassungs- oder Schadensersatzansprüche geltend zu machen, kommt das Bürgerliche Gesetzbuch in Betracht.

(emw)