Regierungssprecher: Rechtsstaatliches Vorgehen gegen Deepfakes ist schwierig

Die Instrumente im Kampf gegen KI-generierte Videos, wie das zum angeblichen AfD-Verbotsantrag durch Scholz, sind fürs Presseamt "eigentlich nicht hinlänglich".

In Pocket speichern vorlesen Druckansicht 39 Kommentare lesen
Lesezeit: 6 Min.

Der Vizechef des Bundespresseamts (BPA) Johannes Dimroth hält die staatlichen Mittel für unzureichend, mit denen Demokratien auf Deepfakes reagieren können. Einschlägige Bild-, Audio- oder Videomanipulationen, die mithilfe von künstlicher Intelligenz (KI) generiert werden, unterminierten das "Vertrauen in die Echtheit von Inhalten insgesamt", erklärte er am Freitag bei einem Runden Tisch zu "Trustworthy AI" des Tagesspiegels in Berlin. Ein Einzelfall lasse sich gegebenenfalls noch durch ein "rotes Telefon" lösen. Auf Dauer sei aber ein Anker für die demokratische Meinungsbildung in Gefahr. Medienkompetenz und "Pre-Bunking", also das Immunisieren gegen Desinformation durch das Anlegen einer mentalen Rüstung, seien wichtige Bausteine im Kampf gegen Deepfakes. Der Jurist will dabei aber auch "die Tech-Konzerne nicht aus der Verantwortung lassen".

Den "Big Bang", mit dem etwa die Integrität von Wahlen ausgehebelt werden könnte, habe die Bundesregierung zwar noch nicht erlebt, konstatierte Dimroth. Es gebe aber tagtäglich Versuche, um auf Meinungsbildungsprozesse der hiesigen Politik und Öffentlichkeit Einfluss zu nehmen. Bundeskanzler Olaf Scholz (SPD) selbst gilt als gebranntes Kind: Das "Zentrum für Politische Schönheit" (ZPS) ließ im November einen KI-animierten Regierungschef in einer Videoansprache ankündigen, schon bald ein AfD-Verbot vor dem Bundesverfassungsgericht beantragen zu wollen. Die "bemerkenswerte Fleißarbeit" des Künstlerkollektivs sei auf einem großen Bildschirm zwar als KI-generierter Inhalt erkennbar gewesen, legte Dimroth dar. "Aber in der U-Bahn auf dem Handy nicht."

Für den Sprecher steht fest: Wo Bundesregierung draufsteht, müsse sichergestellt sein, dass sie auch drin ist. Es könne nicht angehen, dass der Kanzler offenbar der geneigten Öffentlichkeit Dinge mitteile, die er so gar nicht wolle. "Ich rede knallhart von sicherheitspolitischen Interessen in multiplen Krisen", betonte Dimroth. Im ZPS-Fall habe das BPA also zunächst das "Notice-and-Take-down-Verfahren" bei Plattformen wie Instagram oder YouTube bemüht und das Herunternehmen des Videos beantragt. Die Betreiber täten sich aber traditionell sehr schwer damit, da sie so in eine Schiedsrichterrolle gezwungen würden und anhand von Aspekten wie Selbstverpflichtung, Urheber- oder Markenrecht sowie der drohenden Verwechslungsgefahr entscheiden müssten.

Die Abwägungen und das weitere Verfahren hätten "sehr lange gedauert", monierte der frühere Leiter der Abteilung für politische Kommunikation im BPA. Einige Plattformen hätten die Inhalte heruntergenommen, andere nicht. Parallel habe das ZPS als Urheber mit einem Gerichtsverfahren gedroht, mit dem Ziel, die Regierung zur Unterlassung ihres Vorgehens zu verurteilen. Daraufhin habe man selbst vor Gericht eine Entscheidung angestrebt. Erst nach sieben Wochen im einstweiligen Rechtsschutzverfahren hätten die Richter dann eine Verwechslungsgefahr anerkannt, die nicht mit Kunst oder Satire zu rechtfertigen sei. Trotzdem lasse sich das Video nach wie vor an verschiedenen Stellen im Internet finden.

"Die Instrumente sind eigentlich nicht hinlänglich", resümiert Dimroth nach der "steilen Lernkurve". Dabei handle es sich hier um eine Organisation, die zu dem Deepfake stehe und dafür werbe. "Das hat unsere Besorgnis eher gestärkt" mit Blick auf andere, weniger offen auftretende Initiatoren, berichtete der Experte. Letztlich sei im Internet jeder ein Sender und viele solcher Lautsprecher könnten "in bestimmten Bevölkerungsgruppen Vertrauen für sich beanspruchen". Tech-getrieben durch Algorithmen fühlten sich viele Zuhörer parallel in ihren Meinungen bestätigt. So werde es immer schwieriger, "die Leute zurückzuholen". Immer weniger hielten eine Gegenrede aus, immer mehr verabschiedeten sich vom demokratischen Diskurs.

Die Corona-Impfdebatte ist laut Dimroth ein Beispiel dafür. Gegner von Immunisierungen hätten hier lautstark beklagt, sie dürfen nicht mehr sagen, was sie denken. Doch der in Anspruch genommene Artikel 5 Grundgesetz schütze die Bürger keineswegs vor Widerspruch und werde durch einen solchen nicht staatlich eingeschränkt. Vielmehr betrieben Impfgegner eine "Perversion der Grundidee von Artikel 5". Ferner spielten kollektive Traumata eine große Rolle. Die aktuelle Solidarisierung des Globalen Südens mit Palästina etwa "können wir nicht erfolgreich mit unserer Sichtweise adressieren". Hier träfen unterschiedliche Weltanschauungen aufeinander, nachdem auch der Norden Vertrauen zerstört habe.

"Können wir Wahrheit überhaupt noch wahrnehmen?", warf Jürgen Neyer vom Social Science Lab for Artificial Intelligence and Research-based Learning an der European New School of Digital Studies in Frankfurt (Oder) als Frage auf. "Wir sind sozialisiert, an die Stärke guter Argumente zu glauben." Dies habe die Gesellschaft lange zusammengehalten. Doch es werde immer deutlicher, dass eine narrative Integration wichtiger werde. Die Menschen lebten so "in bestimmten Wahrheitsordnungen", führte der Sozialwissenschaftler aus: "Alles zerfällt in kleine Geschichten. Wir können nicht mehr eindeutig zwischen Lüge und Wahrheit unterscheiden. Das führt zu großer Verunsicherung." Er plädiert daher für ein "probabilistisches Wahrheitsverständnis". So funktioniere auch KI, die keineswegs objektiv entscheide. Veraltet sei ein dichotomes Schwarz-Weiß-Bild der Welt.

Parallel plädierte Neyer dafür, die Sache mit der Regulierung von Deepfakes etwa über den Digital Services Act (DSA) nicht zu scharf zu stellen. Er warnte vor einem Overblocking vor allem von Inhalten, die als "störend für die öffentliche Ordnung in Zukunft" empfunden würden. Solche Blockaden enthielten ein großes Missbrauchspotenzial. Dazu komme: "Kritischer Diskurs macht uns erst resilient." Es gelte, sich auch mit "dem Hässlichen, Unangenehmen" auseinanderzusetzen. Technische Hilfsmittel wie Signaturen oder Wasserzeichen hälfen zudem kaum gegen Deepfakes: Sie ließen sich fälschen.

Wolfgang Dierker, Leiter der Rechtsabteilung bei Microsoft Deutschland, lobte trotzdem die auf der Münchner Sicherheitskonferenz getroffene Vereinbarung von mittlerweile 25 Unternehmen wie Adobe, Anthropic, OpenAI, Meta, Google, Amazon, Snap, X und dem Konzern aus Redmond, um mit technischen Maßnahmen Missbrauch von KI bei demokratischen Wahlen einzudämmen. Er räumte aber ein, dass dies nur einen Teil der Antwort darstellen könne und eine "Zusammenarbeit aller gesellschaftlicher Player" inklusive Aus- und Fortbildung sowie Sensibilisierung nötig sei, um "vor die Welle" zu kommen. Der Jurist stellte zugleich klar: "Man muss auf Echtheit vertrauen können. Hier endet die Debatte über eine neue Wahrheitsordnung."

(bme)