Für emotionsbasierte Dienste: Maske erkennt Gefühle in Echtzeit

Mittels spezieller Sensoren werden Emotionen aus dem Gesicht abgelesen. Das funktioniert in Echtzeit und könnte emotionsbasierte digitale Dienste anfeuern.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen

Sensoren in einer transparenten Gesichtsmaske liefern Daten zur Emotionserkennung.

(Bild: Jiyun Kim u. a. (Screenshot))

Lesezeit: 2 Min.

Wissenschaftler der Nanyang Technical University in Singapur haben eine Gesichtsmaske entwickelt, die Emotionen ihres Trägers in Echtzeit ermitteln kann. Das System benutzt zur Erkennung eingearbeitete Dehnungs- und Vibrationssensoren, die aus der Kombination von nonverbalen und verbalen Ausdrucksdaten zuverlässig emotionale Informationen liefern können.

Menschliche Emotionen zu erfassen ist eine schwierige Angelegenheit, mit der sogar Menschen Probleme haben, sie eindeutig zu erkennen. Denn häufig sind Gefühle abstrakt und können mehrdeutig interpretiert werden. Forscher der Nanyang Technical University haben deshalb ein personalisiertes, hautintegriertes Gesichtsschnittstellensystem entwickelt, das sie in der Studie "Encoding of multi-modal emotional information via personalized skin-integrated wireless facial interface" vorstellen, die in Nature Communication erschienen ist. Die Forscher bezeichnen es als Personalized Skin-integrated Facial Interface (PSiFI).

Dabei handelt es sich um eine Art Maske, in die bidirektionale triboelektrische Dehnungs- und Vibrationssensoren eingearbeitet sind. Die individuell angefertigte Maske ist dehnbar und transparent ausgelegt, sodass sie auch nicht besonders stark auffällt. Die flexiblen Sensoren, die sich im Bereich von Stirn, Augen, Nase, in der Nähe der Lippen sowie am Kinn und Hals befinden, erfassen Gesichtsbewegungen und die Vibrationen der Stimmbänder beim Sprechen. Die Sensoren arbeiten nach dem piezoelektrischen Prinzip, erzeugen Energie also selbst durch Dehnung, sodass sie keinerlei Stromzufuhr benötigen.

Die Sensordaten werden drahtlos über eine Bluetooth-Schnittstelle übertragen. Die Daten können dadurch in Echtzeit analysiert werden. Dazu haben die Forscher Algorithmen des maschinellen Lernens entwickelt und das System so trainiert, dass es Gesichtsmuskelverformungen und Stimmbandvibrationen in Emotionen übersetzen kann.

Die Wissenschaftler testeten das System. Dabei zeigte sich eine hohe emotionale Erkennungsgenauigkeit von 93,3 Prozent. Bereits bei minimalem Training fiel die Erkennungsleistung gut aus. Selbst bei Störungen etwa durch eine weitere Maske lag die Erkennungsleistung noch bei 80 Prozent.

Die Forscher integrierten die Emotionserkennung in eine digitale Concierge-Anwendung in eine Virtual-Reality-Umgebung (VR), die Gefühle erkennen und entsprechend darauf reagieren kann. Praktisch könnte das System dafür verwendet werden, um etwa personalisierte Empfehlungen für Musik, Filme und Bücher zu geben.

Die Forscher räumen jedoch ein, dass dazu noch weitere Entwicklungsarbeit nötig ist, auch um etwa die Tragbarkeit zu verbessern. Bisher lassen die Wissenschaftler allerdings die Frage offen, ob es überhaupt genügend Menschen gibt, die eine solche Maske dauerhaft tragen würden, um emotionsbasierte digitale Dienste nutzen zu können.

(olb)