Bis zu 5 Jahre Haft: Bundesrat will Deepfakes eindeutig strafbar machen​

Die Länder haben einen Gesetzesantrag befürwortet, mit dem sie harte Strafen für die "Verletzung von Persönlichkeitsrechten durch digitale Fälschung" fordern.​

In Pocket speichern vorlesen Druckansicht 18 Kommentare lesen
Deepfake-Schriftzug vor Handy in Menschenhand

(Bild: Skorzewiak/shutterstock.com)

Lesezeit: 3 Min.

Der Bundesrat fordert ein schärferes Vorgehen gegen Deepfakes. Er hat dazu einen Gesetzesantrag zum strafrechtlichen Schutz von Persönlichkeitsrechten durch solche realistisch wirkende Medieninhalte, die am Computer … immer häufiger unter Einsatz von Künstlicher Intelligenz (KI) – erzeugt werden. Die Länderkammer folgt damit einer Initiative Bayerns. Kern des Entwurfs ist ein neuer Paragraf 201b des Strafgesetzbuchs (StGB). Mit Geld- oder Freiheitsstrafe bis zu zwei Jahren soll demnach bestraft werden, wer eine computertechnisch hergestellte oder veränderte, aber aufgrund des "äußeren Erscheinungsbildes, des Verhaltens oder mündlicher Äußerungen" wirklichkeitsgetreu anmutende Aufnahme verbreitet und dadurch das Persönlichkeitsrecht einer anderen Person verletzt. Dies soll auch bei Bezug auf verstorbene Personen gelten.

Wer einen entsprechenden Medieninhalt der Öffentlichkeit zugänglich macht oder Deepfakes verbreitet, die "einen Vorgang des höchstpersönlichen Lebensbereichs" betreffen, dem drohen dem Vorhaben zufolge sogar fünf Jahre Haft oder eine Geldstrafe. Ausgenommen werden sollen Handlungen, "die in Wahrnehmung überwiegender berechtigter Interessen erfolgen". Der Bundesrat verweist dabei etwa auf Kunst oder Wissenschaft, Forschung und Lehre sowie die Berichterstattung über Vorgänge des Zeitgeschehens. Bild- und Tonträger oder andere technische Mittel, die "der Täter oder Teilnehmer verwendet hat", könnten zudem eingezogen werden.

Die Länder begründen ihren Antrag damit, dass Deepfakes "erhebliche Gefahren sowohl für individuelle Persönlichkeitsrechte und Vermögenswerte als auch für den demokratischen Willensbildungsprozess" bärgen. Besonders durch die immer besser werdenden Erzeugnisse von KI stellten diese eine für den Staat und seine Bürger "besonders gefährliche Form der Informationsmanipulation dar". Deepfakes würden zunehmend auch von Straftätern zum Erreichen missbräuchlicher Ziele wie Desinformation oder rechtswidriger Bereicherung eingesetzt.

Vor allem schüfen Deepfakes aber auch Gefahren für den Schutz der Persönlichkeit, führt der Bundesrat aus. Häufig würden Frauen und Mädchen durch technische Manipulation von Bild- oder Videoaufnahmen "in einen zuvor nicht bestehenden und von den Betroffenen offensichtlich nicht gewollten sexuellen Kontext gesetzt werden" ("Deepnudes"). Den Tätern komme es dabei oft darauf an, "diese Personen zum Objekt eigener sexueller Interessen zu machen oder an ihnen ihre Rache- und Machtbedürfnisse auszuleben". Für die Betroffenen unterschieden sich die schädlichen Auswirkungen kaum von denen der unerwünschten Verbreitung realer Nacktaufnahmen. Deepfakes würden zudem etwa genutzt, um "andere Personen im politischen Meinungswettstreit möglichst effektiv zu diskreditieren" oder um "Schockanrufe" mit vermeintlichen Stimmen enger Angehöriger zu tätigen. Kanzler Olaf Scholz (SPD) etwa musste bereits Erfahrungen mit einem KI-animierten Video von sich selbst machen.

Der Ausschuss für Frauen und Jugend hatte sich für Klarstellungen ausgesprochen. Er wollte zudem bereits die Herstellung von Deepfakes unter Strafe gestellt wissen. Dafür fand sich im Plenum aber keine Mehrheit. In einer Entschließung bittet der Bundesrat die Bundesregierung aber, Programme zur Erkennung und Kennzeichnung manipulierter Inhalte auf den Weg zu bringen. Er schlägt vor, eine zentrale Anlaufstelle einzurichten, die kleine und mittlere Unternehmen in Fragen der Deepfake-Erkennung und -kennzeichnung unterstützt. Die Länderkammer bringt den Gesetzentwurf nun in den Bundestag ein, der dann darüber entscheidet. Eine Frist dazu gibt es nicht. Zuvor kann die Bundesregierung Stellung nehmen. Ein Regierungssprecher hatte im März erklärt, dass Instrumente im Kampf gegen KI-generierte Videos bislang "eigentlich nicht hinlänglich" seien und Handlungsbedarf gesehen.

(mki)