Das Gehirn erkennt Deepfakes – aber nur unterbewusst

Immer häufiger werden wir mit computergenerierten Personen konfrontiert, die sich kaum von echten unterscheiden lassen. Doch offenbar kann unser Hirn das doch.

In Pocket speichern vorlesen Druckansicht 72 Kommentare lesen

Alle diese Menschen sind computergeneriert. Hätten Sie es gemerkt?

(Bild: Random Face Generator / This Person Does Not Exist)

Lesezeit: 3 Min.

Computern gelingt es dank maschinellem Lernen und neuartigen Bilderzeugungsalgorithmen längst, kaum mehr zu erkennende Fälschungen von Menschen zu erzeugen – im Foto wie auch im Video. Doch offenbar verfügt unser Gehirn über Möglichkeiten, Deepfakes & Co. doch zu identifizieren, erstaunlicherweise aber nicht bewusst, sondern unterbewusst. Zu diesem Schluss kommt eine Gruppe von Forschern an der University of Sydney, die dazu die Hirnstrommessung verwendet hat.

Mit Hilfe der Elektroenzephalografie (EEG) lässt sich die elektrische Aktivität des Gehirns messen. Die dabei erzielbare Auflösung hat sich in den letzten Jahren stark verbessert, auch wenn die Technik noch lange nicht an im Gehirn implantierte Elektroden herankommt. Im Versuch von Thomas Carlson, Associate Professor am Institut für Psychologie der Hochschule, wurden zunächst zwei Gruppen gebildet. Die eine sollte eine Auswahl von 50 Bildern aus Deepfakes und realen Aufnahmen als echt oder falsch identifizieren, ohne dass weitere Messungen durchgeführt wurden. Die zweite Gruppe hatte den gleichen Job, trug allerdings während des Vorgangs eine EEG-Kappe. Bei dieser wurde die Hirnaktivität aufgezeichnet.

Es zeigte sich, dass es im EEG-Profil sichtbare Unterschiede zwischen Echt und Deepfake gab. Zudem war die Trefferquote der Gruppe der "Unterbewussten" größer. Dabei "erkannten" die Gehirne der Probanten in 54 Prozent der Fälle die Deepfakes, im Vergleich zu nur 37 Prozent bei der Gruppe, die ohne EEG-Messung verbal äußern sollte, ob es sich um ein Deepfake handelt oder nicht. Zwar sei die Genauigkeit des Gehirns vergleichsweise gering. Doch der Unterschied zur Kontrollgruppe sei statistisch verlässlich genug, meint Carlson. "Das zeigt uns, dass das Gehirn den Unterschied zwischen Deepfakes und authentischen Bildern finden kann."

Allerdings lässt sich bislang nicht ermitteln, was denn konkret die Merkmale sind, die das Gehirn dazu veranlasst, Deepfakes als solche zu erkennen. Carlson zufolge muss es in den Deepfakes daher "irgendeinen Fehler" geben. Wäre es möglich, herauszufinden, was das konkret ist, ließe sich wiederum ein Algorithmus darauf trainieren, Deepfakes zu erkennen – etwa in sozialen Netzwerken. Ganz ungefährlich wäre das allerdings nicht, weil Deepfake-Ersteller dann wiederum selbst Anpassungen vornehmen könnten, um die Fälschungen besser zu machen.

Zwar kommt es bislang noch selten vor, dass Deepfakes echten Schaden anrichten – obwohl die Technik längst zu Propagandazwecken oder kriminelle Aktivitäten verwendet wird. Carlson nennt etwa Beispiele aus Großbritannien und Dubai, wo Sprachklontechnik dazu verwendet wurde, Banksicherheitssysteme zu überwinden. Er glaubt an eine Zukunft, in der Sicherheitsleute EEG-Kappen tragen, um bei Deepfakes alarmiert zu werden. Noch steht die Technik allerdings ganz am Anfang. "Es muss mehr geforscht werden. Uns macht allerdings Hoffnung, dass Deepfakes aus dem Computer eine Art "Fingerabdruck" hinterlassen, der aufgespürt werden kann."

(bsc)