Expertenstreit über Emotionserkennung durch KI

US-Forscher fordern, die automatisierte Erkennung menschlicher Emotionen in bestimmten Fällen zu verbieten. Die Forderung bleibt nicht ohne Widerspruch.

In Pocket speichern vorlesen Druckansicht 29 Kommentare lesen
Fehler der Gesichtserkennung: Unschuldige auf Fahndungsaufruf in Sri Lanka

(Bild: Neosiam32896395/Shutterstock.com)

Lesezeit: 3 Min.
Von

Emotionserkennung wird bislang hauptsächlich in Callcentern oder für die Ermittlung von emotionalen Reaktionen auf Werbung und Produkte in Geschäften benutzt. Aber der Anwendungsbereich wird ständig größer: Unternehmen wie HireVue, Human oder Retorio analysieren beispielsweise Videoaufnahmen von Bewerbern, um daraus eine Empfehlung für die Jobeignung abzuleiten. Menschenrechtler und Bürgerrechtsaktivisten befürchten zudem, dass auch Behörden solche oder ähnliche Software nutzen.

TR 3/2020

Das AI Now Institute, das 2017 an der New York University gegründet wurde und die gesellschaft­lichen Auswirkungen künstlicher Intelligenz untersucht, fordert, den Einsatz dieser Technik in bestimmten Situationen zu verbieten. Allerdings stören sich die Experten weniger am Überwachungsaspekt. Sie kritisieren vielmehr, es gebe "wenig bis gar keine Beweise dafür, dass diese neuen Produkte zur Erkennung von Affekten eine wissenschaftliche Grundlage haben". Andere Forscher, die auf diesem Gebiet arbeiten, kritisieren den Bericht von AI Now hingegen als "überzogen", berichtet Technology Review in seiner neuen März-Ausgabe (jetzt im Handel).

Tatsächlich sind die wissenschaftlichen Grundlagen der Emotionserkennung noch immer umstritten. Der Psychologe Paul Ekman entwickelte zwar Ende der 1970er Jahre eine Theorie, die versprach, Emotionen objektiv messbar zu machen. Ekman ging davon aus, dass ein minimaler Satz von Basis-Emotionen in unserem gene­tischen Erbe gewissermaßen hart codiert ist – sie laufen als ­Reaktion auf äußere Reize quasi automatisch ab und können deshalb auch weltweit, unabhängig vom kulturellen Hintergrund, nachgewiesen werden.

Die Psychologin Lisa Feldman Barrett von der North­eastern University in Evanston, Illinois, sieht in dieser Theorie jedoch ein grundsätzliches Problem: Der Versuch, Emotionen einen "eindeutigen Fingerabdruck" zuzuweisen, muss nach ihrer Auffassung grundsätzlich scheitern. Gefühlsregungen, schreibt Feldman Barrett in ihrem Buch "How Emotions are Made", entstehen aus dem Zusammenspiel körperlicher Reaktionen und im ­Gedächtnis gespeicherter Erfahrungen. Praktisch kein Gefühl sei ohne Kontext zu verstehen.

Im Juli 2019 veröffentlichte die Psychologin in der Zeitschrift der Association for Psychological Science eine umfangreiche Metastudie über den Ausdruck von Emotionen über das Gesicht und die Wahrnehmung von Emotionen bei anderen Menschen. Der Aufsatz gilt AI Now als Beleg dafür, dass Emotions­erkennung keine wissenschaftliche Grundlage hat. Doch bei ­aller berechtigten Kritik an der Technik – mit dieser Deutung sei die Organisation über das Ziel hinausgeschossen. So jedenfalls sieht es der Psychologe Stacy C. Marsella von der North­eastern University, Kollege von Lisa Feldman und Co-Autor ­ihrer Studie. "Die Folgerungen sind zu allgemein", sagt ­Marsella. "Das Paper sagt, es gibt keine Belege dafür, dass sich aus der reinen Beobachtung von Gesichtsausdrücken auf innere emotionale Zustände schließen lässt. In dem Bericht wird jedoch behauptet, dies gelte auch für die automatisierte Erkennung von Affekten. Die funktioniert aber sehr wohl."

Der entscheidende Unterschied liegt für Marsella darin, dass die Maschine Gesichter analysiert, denen Menschen zuvor ­bestimmte Emotionen zugeordnet haben. Mit anderen Worten: Das System lernt, dass ein menschlicher Beobachter diesen oder jenen Gesichtsausdruck mit hoher Wahrscheinlichkeit als ­diese oder jene Emotion deuten würde. Menschen sind allerdings – ohne Kenntnis des Kontexts – nicht besonders gut darin, die Emotionen anderer zu deuten. Die durchschnittliche Trefferquote liegt bei 60 bis 70 Prozent. Über den inneren, emotionalen Zustand eines Menschen sage das jedoch nichts aus. (jle)