Bundesregierung: Deep Fakes als große Gefahr für Gesellschaft und Politik

Computergenerierte Manipulationen könnten demokratische Prozesse bedrohen und die Kriminalitätsbekämpfung erschweren, sorgt sich die Bundesregierung.

In Pocket speichern vorlesen Druckansicht 44 Kommentare lesen
Bundesregierung: Deep Fakes als große Gefahr für Gesellschaft und Politik
Lesezeit: 4 Min.
Inhaltsverzeichnis

Die Bundesregierung verfolgt die technologische Entwicklung im Bereich Bild-, Audio- oder Videomanipulationen, die mithilfe von Künstlicher Intelligenz (KI) teils schon täuschend echt wirken, voller Sorge. "Deep Fakes können eine große Gefahr für Gesellschaft und Politik darstellen, wenn sie dazu genutzt werden, die öffentliche Meinung zu manipulieren und den politischen Prozess gezielt zu beeinflussen", schreibt sie in einer jetzt veröffentlichten Antwort auf eine Anfrage der FDP-Bundestagsfraktion.

"Es kann nicht ausgeschlossen werden, dass aufgrund der schnellen technologischen Fortschritte künftig auch eine Bedrohung demokratischer Prozesse durch Deep Fakes erfolgen kann", gibt das federführende Bundesjustizministerium in dem Schreiben zu bedenken. Denkbar sei es etwa, dass Desinformationskampagnen durch solche Manipulationen begleitet und ihr Effekt etwa über soziale Netzwerke verstärkt werde.

"Deep Fakes stellen bei der Kriminalitätsbekämpfung eine große Herausforderung dar", unterstreicht die Regierung. Sie stünden daher aufgrund der hierbei genutzten KI-gestützten Technologien auch mit im Fokus des entsprechenden Arbeitsbereichs der Abteilung Cyber- und Informationssicherheit im Bundesinnenministerium.

KI-Verfahren, mit denen Straftäter solche mediale Täuschungsversuche erstellten, könnten andererseits auch den Sicherheitsbehörden als Instrument "bei der Strafverfolgung, Ermittlung und Analyse" dienen, ist dem Schreiben zu entnehmen. Etwa mithilfe von Methoden des maschinellen Lernens sei es möglich, Deep Fakes gezielt zu erkennen. Nach dem Willen von Bundesjustizministerin Christine Lambrecht (SPD) sollen Ermittler künftig im Kampf gegen sexuellen Kindesmissbrauch auch entsprechende computergenerierte Bilder verwenden dürfen, um einschlägige kriminelle Netzwerke besser aufklären zu können.

Prinzipiell sei das Phänomen in der Lage, "das gesellschaftliche Vertrauen in die grundsätzliche Echtheit von Audio- und Videoaufnahmen und damit die Glaubwürdigkeit öffentlich verfügbarer Informationen" zu schwächen, heißt es in der Antwort. Noch könnten Menschen aber selbst "komplexe Deep Fakes" in der Regel noch "zeitnah und schnell" durchschauen. Ein problematisches Szenario wäre dagegen "eine schwererkennbare Technik in Massenanwendung im Rahmen plausibler, aber verfälschter Narrative". Angesichts der noch geringen Relevanz für die Öffentlichkeit warnten Wissenschaftler aber davor, einschlägige Gefahren für demokratische Prozesse überzubewerten.

Um Deep Fakes auszumachen, eignen sich laut dem Justizressort "Werkzeuge der Multimediaforensik, mit denen sich Manipulationsspuren in Multimediadaten technisch erkennen und nachweisen lassen". In Deutschland beschäftigten sich etwa das Nationale Forschungszentrum für angewandte Cybersicherheit (Athene), die TU München oder die Fraunhofer-Gesellschaft mit diesem Thema. Die Deutsche Welle, das Fraunhofer-Institut für Digitale Medientechnologie (IDMT) und das Athens Technology Center (ATC) hätten ferner das gemeinsame Forschungsprojekt Digger gestartet. Ziel sei es, die webbasierte Verifikationsplattform "Truly Media" etwa um Audioforensik-Technologien zu erweitern und Journalisten so zu helfen, Manipulationen an Bewegtbildern zu erkennen.

Insbesondere im Rahmen der Kabinettsklausur am Mitte November auf Schloss Meseberg hat sich die Bundesregierung nach eigenen Angaben mit dem gesamten Themenkomplex auseinandergesetzt. Es werde innerhalb des Kabinetts übergreifend behandelt. Um Aspekte der Desinformation kümmerten sich etwa das Auswärtige Amt, die Beauftragte für Kultur und Medien sowie das Justizministerium. Mit dem Kontext hybrider Bedrohungen befasse sich eine übergreifende Arbeitsgruppe. Die Bundesregierung stimme sich zudem in diesem Bereich mit den anderen EU-Mitgliedstaaten ab. Man sei hier auch über ein "Rapid Alert System" (RAS) miteinander verbunden, in dem Erkenntnisse zu Desinformation und damit auch zu Deep Fakes "geteilt werden können".

Aus sozialwissenschaftlicher Perspektive untersucht der Antwort nach derzeit die Universität der Bundeswehr Hamburg die Technik "als Instrument hybrider Kriegsführung". Im Bundesforschungsministerium beschäftige sich die Abteilung für "Digitalisierung und Innovationen" mit Deep Fakes und fördere etwa wissenschaftliche Arbeiten zur IT-Forensik, um beispielsweise "Fake News" zu bekämpfen. Das Bundesfamilienministerium entwickle und fördere Projekte zur digitalen Kompetenz, auch das Bundeskanzleramt und das Presse- und Informationsamt der Bundesregierung hätten das Thema auf dem Zettel.

Lesen Sie dazu auch bei c't:

(mho)