Die große Gesichts-Verkennung

Seite 2: Hinweise auf Emotionen

Inhaltsverzeichnis

Dahinter steckt ein Modell des mittlerweile emeritierten amerikanischen Psychologen Paul Ekman von der University of California. Ekman zufolge gibt es bestimmte Gefühle, die Menschen aller Kulturen in gleicher Weise empfinden, zum Ausdruck bringen und bei anderen Menschen erkennen: Freude, Ärger, Ekel, Angst, Trauer und Überraschung. Zu jeder dieser Basisemotionen gehöre ein unverkennbarer Gesichtsausdruck, über den niemand hinwegtäuschen könne. Mit dem Facial Action Coding System (FACS) entwickelte Ekman ein Kodiersystem, um anhand kleinster Muskelbewegungen Gesichtsausdrücke dechiffrieren und Emotionen zuordnen zu können. Der Haken ist bloß: Psychologen stellen sein Modell zunehmend infrage.

Gesichtsausdrücke geben zwar Hinweise auf Emotionen, aber nur bis zu einem gewissen Grad. Der Zusammenhang ist längst nicht so eindeutig und objektivierbar, wie die Idee der Basisemotionen suggeriert. "Die wissenschaftliche Evidenz im Ganzen gesehen unterstützt die Idee nicht", sagt die Psychologin Lisa Barrett von der Bostoner Northeastern University. Sie ist eine der bekanntesten Kritikerinnen von Ekmans Theorie. In ihren Studien hatten Probanden Probleme, Gesichtern übereinstimmend bestimmte Emotionen zuzuschreiben – sofern sie ihnen nicht unter die Arme griff, indem sie etwa von Anfang an eine Liste von möglichen Emotionen vorgab. Das galt für Menschen aus dem Westen, aber in noch stärkerem Maße für Probanden aus anderen Kulturkreisen.

Auf der nach oben offenen Skala der Unheimlichkeit ist damit noch lange nicht Schluss: Der rasante Fortschritt des maschinellen Lernens hat mittlerweile Forscher sogar dazu verführt zu glauben, man könne auf diesem Weg Charaktereigenschaften oder Neigungen eines Menschen aus dem Gesicht ableiten. Xiaolin Wu und Xi Zhang von der chinesischen Shanghai Jiao Tong University etwa ließen 2016 eine Software zunächst raten, ob eine Person auf einem Foto kriminell war oder nicht. Dann fütterten sie den Algorithmus mit der korrekten Antwort. Am Ende konnte der Algorithmus angeblich den Unterschied mit einer Quote von 90 Prozent bestimmen.

Es hagelte Kritik, sowohl ethischer als auch fachlicher Natur: Informatiker Michael Cook von der britischen Falmouth University etwa kritisiert: "Wenn wir das Wort ,kriminell' lesen, denken wir gemeinhin an etwas angeboren Böses, etwas Objektives." Dem aber ist nicht so: "Die Studie setzt ,kriminell' damit gleich, dass die Personen in ihrem Datensatz sind." Doch in China würden auch Menschen für Verbrechen verurteilt, die in den meisten anderen Ländern nicht als Verbrechen gelten würden, etwa Vergehen im Zusammenhang mit dem Zugang zum Internet. Zudem enthielte die Datenbank nicht nur Kriminelle, sondern auch nicht verurteilte Verdächtige.

Noch schwerer wiegt eine weitere Kritik: Die Bilder der "Nichtkriminellen" und der "Kriminellen" stammten aus unterschiedlichen Quellen. Die der als "kriminell" klassifizierten Personen kamen von drei Behörden und waren Ausweisfotos. Die "nichtkriminellen" waren hingegen Profilfotos chinesischer Bürger von verschiedenen Webseiten. Und das könnte letztlich den Erfolg des Algorithmus erklären. Die Software dürfte auf andere Zusammenhänge gestoßen sein als auf bestimmte aussagekräftige Merkmale in den Gesichtern. Das weiß Florian Gallwitz aus eigener Erfahrung. Er und seine Kollegen haben vor Jahren Algorithmen darauf trainiert, Slowenisch und Slowakisch zu unterscheiden. Durch einen Fehler war bei den Aufnahmen von einem der Aufnahmeorte noch ein kurzer Header der Audiodateien enthalten, der für das menschliche Ohr nicht wahrnehmbar war. Und dieses Merkmal nutzten die Algorithmen, um die beiden Sprachen zu unterscheiden.

Große Skepsis ist daher angebracht, wenn Forscher verkünden, sie hätten aus dem Gesicht sogar Eigenschaften wie Homosexualität oder die politische Einstellung herausgelesen. In einer Studie von 2017 ließ der Psychologe Michal Kosinski von der Stanford University einen Algorithmus entscheiden, wer auf jeweils einem von zwei Bildern heterosexuell und wer homosexuell war. Im Falle von Männern lag der Algorithmus in 81 Prozent der Fälle richtig, bei den Frauen in 74 Prozent. Tendenziell waren etwa schwule Männer vom Gesicht her femininer als heterosexuelle Männer. Anders als diese eindrucksvollen Zahlen suggerieren, bedeuten sie allerdings nicht, dass man bei jedem Männerporträt mit 81-prozentiger Wahrscheinlichkeit erkennen kann, ob derjenige schwul oder heterosexuell ist. Das gilt eben nur für den von Kosinski untersuchten Fall, bei dem einer der beiden Männer auf zwei Fotos homosexuell war. Außerdem stammten die Bilder von einem Datingportal, sind also möglicherweise besonders "enthüllend" bezüglich der sexuellen Orientierung.

"Je moralisch besser, desto schöner. Je moralisch schlimmer, desto hässlicher", schrieb der Schweizer Pfarrer und Philosoph Johann Caspar Lavater, einer der prominentesten Protagonisten der Physiognomik. Im 19. und 20. Jahrhundert lieferte die Pseudowissenschaft den ideologischen Nährboden für Rassenwahn und Eugenik. Nun scheint es, als erlebe sie mit dem blinden Glauben an die Kraft der Algorithmen eine Renaissance.

Doch nicht nur Informatiker verweisen auf die Absurdität des Vorhabens. Auch die moderne Psychologie kennt auf die Frage, ob es prinzipiell möglich sei, etwa eine Neigung zu kriminellem Verhalten oder die politische Einstellung aus Bildern eines Gesichtes abzuleiten, nur eine Antwort: "Nein", sagt der Psychologe Alexander Todorov von der Princeton University, der sich seit vielen Jahren mit dieser Frage beschäftigt. Weder Menschen noch Maschinen seien dazu in der Lage.

"Deep Learning kann nicht Informationen aus Fotos herausziehen, die gar nicht da sind", so Todorov. Dahinter stecke die falsche Idee, dass Menschen über einen unveränderlichen Kern verfügten, der vollständig die äußere Erscheinung und das Verhalten bestimme. Zur Fahndung oder Überwachung könnte die Gesichtserkennung bald reif sein. Aber Charaktere anhand eines Fotos zu vermessen, geht selbst mit der besten Technik nicht.

(bsc)