Kollateralschaden

Schon bald wird KI Audio und Video so gut fälschen können, dass Menschen den Unterschied nicht mehr erkennen können. Die Angst vor dieser Technologie richtet bereits jetzt mehr Schaden an als die Technologie selbst.

vorlesen Druckansicht
Lesezeit: 3 Min.

Sie haben sicher schon mal von Deepfakes gehört, oder? Dahinter steckt die Fähigkeit von tiefen neuronalen Netzen charakteristische Merkmale – eines Gesichtes oder einer Stimme – zu lernen und vor allem von allgemeinen Merkmalen – ein Gesicht enthält zwei Augen und eine Nase – zu unterscheiden. Deepfake-Software nutzt diese Fähigkeit, um das Aussehen von Gesichtern in Videos oder die Aussage in Audio-Mittschnitten zu ändern. Eine der ersten Anwendungen, die im Internet viral wurde war – natürlich – eine Software, die Gesichter in Porno-Videos austauschen konnte.

Wenn man genau hinsieht, kann man die Fälschungen noch immer erkennen, aber die Software wird immer besser und das Datenmaterial, mit dem sie trainiert werden kann, wächst beständig. Experten warnen davor, dass solche Täuschung bereits in zwei bis drei Jahren so echt aussehen, dass wir Menschen keine Chance mehr haben werden, die Fälschung zu erkennen.

Maschinen lassen sich nicht so leicht hinters Licht führen. Das niederländische Unternehmen Deeptrace entlarvt gefälschte Videos mit Hilfe von Deep Learning – sozusagen KI gegen KI.

Wenn man in so einem Geschäft ist, muss man natürlich auch immer wieder begründen, warum das, was man tut, gut und sinnvoll ist. Also hat Deeptrace eine Untersuchung zum Stand der Dinge bei Deepfakes veröffentlicht. Die Kernaussage der Analyse der Deepfake-Landschaft ist viel beunruhigender, als wenn es nur um den rasanten technischen Forschritt bei Deepfakes ginge. Die Kernaussage ist vielmehr, dass schon die Angst vor Deepfakes beachtlichen politischen Schaden anrichtet.

Als eines der Beispiele nennt der Bericht den Fall des Präsidenten von Gabun. Ali Bongo war Ende vergangenen Jahres wochenlang nicht in der Öffentlichkeit aufgetaucht. Nach langem Schweigen erklärte die Regierung, der Präsident habe einen Schlaganfall erlitten, befinde sich jedoch auf dem Weg der Genesung, und werde auf jeden Fall seine Neujahrsansprache halten. Auf dem Video mit der Neujahrsansprache blickt der Präsident jedoch seltsam starr in die Kamera.

Prompt zirkulierten in Gabun Gerüchte, das Video sei ein computergenerierter Fake, und der Präsident sei in Wirklichkeit längst tot – woraufhin das Militär einen – gescheiterten – Putschversuch startete.

Bevor Sie jetzt sagen: So etwas kann hier niemals passieren, rate ich zur Vorsicht. Sicher, solch ein instabile politische Situation, die einen Putsch ermöglicht, haben wir hier nicht.

Die Verschwörungstheorie vom toten Präsidenten hätte aber auch hierzulande zünden können, denn ironischerweise gibt es Fakten, die ihr in die Hände arbeiten. So ist zum Beispiel ein Merkmal von Deepfake-Videos, das die Menschen darin nicht oder nur sehr unregelmäßig blinzeln, weil Trainings-Bilder mit geschlossenen Augen nach Möglichkeit aussortiert werden. In dem Video blinzelt Bongo tatsächlich nicht – das könnte aber auch Folge einer Gesichtslähmung nach dem Schlaganfall sein.

Und dass es hierzulande genügend durchgeknallte und Verschwörungstheoretiker gibt, wissen wir nicht erst seit dem Anschlag von Halle. Der hat es nur noch mal schmerzhaft in Erinnerung gerufen. Bereits kurz nach diesem Verbrechen tauchten im Netz die ersten Fake News und Verschwörungstheorien über die Herkunft und politische Ausrichtung des Täters auf.

(wst)