Studie: Menschen finden künstliche Gesichter oft vertrauenswürdiger als echte

Eine Studie zeigt, wie realistisch KI-erzeugte Fotos sein können: Teilnehmer sollten echte Porträtfotos von falschen unterscheiden und taten sich dabei schwer.

In Pocket speichern vorlesen Druckansicht 17 Kommentare lesen
Missing Link: KI - die Künstlichen Idioten des digitalen Kapitalismus

(Bild: PHOTOCREO Michal Bednarek / shutterstock.com)

Update
Lesezeit: 4 Min.

Eine Studie der Universitäten von Lancaster und Kalifornien legt nahe, dass Menschen echte Gesichter auf Fotos kaum von künstlich erzeugten unterscheiden können. Die Teilnehmerinnen und Teilnehmer der Studie sollten Porträtfotos betrachten, von denen einige echt und andere mithilfe künstlicher Intelligenz erstellt waren. Die Probanden sollten dann entscheiden, welche Fotos echt und welche künstlich waren – und lagen dabei oft falsch.

Im ersten Teil der Studie hatten 315 Teilnehmende die Aufgabe, jeweils 128 Gesichter auf Fotos als echt oder künstlich zu klassifizieren. Die Probanden erkannten die Fotos zu 48 Prozent korrekt, nah an der Zufallsrate von 50 Prozent. Im zweiten Teil wurden 219 neue Probanden zunächst darin geschult, echte und künstliche Gesichter auseinanderzuhalten. Danach hatten sie dieselbe Aufgabe wie die erste Gruppe, konnten die Trefferrate aber nur auf 59 Prozent erhöhen.

Die Bilder in den beiden oberen Reihen wurden am häufigsten korrekt klassifiziert, die Bilder in den unteren Reihen am seltensten. (R) steht für reale Fotos, (S) für KI-generierte.

(Bild: Sophie J. Nightingale, and Hany Farid PNAS 2022;119:8:e2120481119)

Es folgte ein drittes Experiment: Hier sollten 223 Probanden mithilfe einer siebenstufigen Skala bewerten, wie vertrauenswürdig die ihnen gezeigten 128 Gesichter sind. Dabei schnitten die KI-Gesichter deutlich besser ab, sie wurden im Schnitt als 7,7 Prozent vertrauenswürdiger eingestuft als die realen Gesichter. Möglicherweise, so die Urheber der Studie, weil die künstlichen Gesichter aufgrund ihrer Entstehung durchschnittlicher aussehen.

Zwar werden lächelnde Gesichter eher als vertrauenswürdig bewertet, aber auf den für die Studie genutzten Bildern lächelten 65,5 Prozent der realen Personen und 58,8 Prozent der künstlichen Gesichter. Das Lächeln allein kann also nicht der Grund dafür sein, dass die KI-generierten Gesichter als vertrauenswürdiger bewertet wurden.

Die vier oberen Gesichter wurden als am vertrauenswürdigsten bewertet, die vier unteren als am wenigsten vertrauenswürdig. Im Schnitt wurden die KI-generierten Gesichter (S) als vertrauenswürdiger angesehen als die echten (R).

(Bild: Sophie J. Nightingale, and Hany Farid PNAS 2022;119:8:e2120481119)

Für die gesamte Studie gab es einen Pool mit insgesamt 800 Fotos, von denen 400 echte Personen zeigten und 400 künstliche Gesichter. Die künstlichen Gesichter wurden mithilfe des Algorithmus StyleGAN2 generiert und sind sehr divers (Geschlecht, Alter, Aussehen). Die 400 echten Fotos stammen aus der Datenbank, mit der der StyleGAN2-Algorithmus gelernt hatte. Sie wurden so ausgewählt, dass jeweils ein echtes Foto einem künstlich generierten ähnelt.

Als Grundlage der Studie diente ein Pool aus 800 Fotos. Es gibt jeweils ein reales (R) und ein künstliches (S) Foto, die einander ähneln.

(Bild: Sophie J. Nightingale, and Hany Farid PNAS 2022;119:8:e2120481119)

Dr. Sophie Nightingale (Lancaster University) und Professor Hany Farid (University of California, Berkeley) haben die Studie durchgeführt. Für sie deuten die Ergebnisse der Studie darauf hin, dass KIs mittlerweile Gesichter erzeugen können, die nicht mehr von echten zu unterscheiden sind und außerdem vertrauenswürdiger erscheinen. Damit hätten die KIs das "uncanny valley" hinter sich gelassen, also den Effekt, dass Menschen eine künstlich generierte Figur ab einem gewissen Grad der Menschenähnlichkeit gruselig finden.

Auch Deepfakes würden damit realistischer, also falsche Videos oder Bilder, die aus Video- oder Bildmaterial einer realen Person generiert werden. KI-generierte Gesichter und Deepfakes könnten laut Nightingale und Farid viele negative Auswirkungen haben, von Rachepornos über Betrug bis zu gezielten Desinformationskampagnen. Auch könnten echte Bilder und Videos als künstlich dargestellt werden oder eben andersherum – die meisten Menschen würden es nicht erkennen.

Aufgrund der Risiken warnen Nightingale und Farid davor, die Technologie hinter Deepfakes und KI-Gesichtern immer weiterzuentwickeln, nur weil dies möglich ist. Sie empfehlen, Risiken und Vorteile abzuwiegen und parallel zur Technologie passende Schutzmaßnahmen zu entwickeln. Das könnten etwa Wasserzeichen für die Erstellung und Richtlinien für die Verbreitung von Deepfakes sein. Ebenso sollte die Verfügbarkeit der Technologien eingeschränkt werden, so die Forscher.

KI-Techniken wie Deepfakes werden bereits in unterschiedlichsten Kontexten eingesetzt. Etwa für Parodien und Spielfilme, aber auch für Rachepornos oder für Werbezwecke, wie jüngst Bruce Willis zeigte. Eine EU-Studie kam im vergangenen Jahr zu dem Schluss, dass Deepfakes die Demokratie gefährden können.

Update 18.02.2022, 14:30 Uhr: Vierter Absatz mit weiteren Einzelheiten ergänzt. Korrigiert, dass es sich bei den Bildern der Studie nicht um Deepfakes handelt.

(gref)