Menschliche Mimik: Forscher schaffen Grundlagen für natürliche Robotergesichter

Einige Roboter haben mitunter gruselige Gesichter. Forscher haben die menschliche Gesichtsmimik untersucht, um Roboter mit natürlicheren Gesichtern zu bauen.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen

Der Roboter Ameca verfügt bereits über eine beeindruckende Gesichtsmimik. Japanischen Forschern reicht das aber nicht aus.

(Bild: Engineered Arts)

Lesezeit: 3 Min.

Wissenschaftler der japanischen Osaka University haben die menschlichen Gesichtsbewegungen kartiert, um so eine Grundlage dafür zu schaffen, dass künstliche Gesichter von Robotern genauer Emotionen transportieren sowie menschliche Emotionen besser erkennen können.

In der Studie "Visualization and analysis of skin strain distribution in various human facial actions", die in Mechanical Engineering Journal erschienen ist, beschreiben die Forschenden, wie sie die verschiedenen Gesichtsmimiken des Menschen erfasst haben. Dazu nutzten sie 125 Tracking-Marker, die sie auf dem Gesicht einer Person angebracht haben. Sie untersuchten damit 44 verschiedene, einzelne Gesichtsaktionen wie etwa Blinzeln und Lächeln.

Bisher fanden Messungen am Gesicht einfacher statt. Dabei wurde lediglich die Gesamtform des Gesichts sowie die Bewegung ausgewählter Punkte auf der Haut vor und nach den Bewegungen berücksichtigt. Die von den Wissenschaftlern nun gewählte Methode liefert deutlich genauere Ergebnisse. Sie erfasst eine Vielzahl lokaler Verformungen, die von den Muskelbewegungen ausgelöst die Haut dehnen und stauchen. Selbst einfachste Bewegungen können so erstaunlich komplex sein, sagen die Forscher. Dabei arbeiten verschiedene Gewebe unter der Haut, Muskelfaser und Fettgewebe zusammen, um im Gesicht Gefühle zu vermitteln. Das erfolgt detailreich und nuanciert, sodass es schwierig ist, diese Mimik künstlich nachzubilden.

"Unsere Gesichter sind uns so vertraut, dass wir die feinen Details nicht mehr wahrnehmen", erklärt Hisashi Ishihara, Hauptautor der Studie. "Aber aus technischer Sicht sind sie erstaunliche Informationsträger. Wenn wir den Gesichtsausdruck von Menschen betrachten, können wir erkennen, ob sich hinter einem Lächeln Traurigkeit verbirgt oder ob sich jemand müde oder nervös fühlt."

Die von den Wissenschaftlern erfassten Informationen zur menschlichen Gesichtsmimik können von anderen Forschern dazu verwendet werden, realistischere Robotergesichter zu entwerfen. Dabei ist es egal, ob es sich um digitale Gesichter auf Bildschirmen oder physische Gesichter von Androidenrobotern handelt. Die Messungen helfen dabei, Spannungen und Kompressionen in der Gesichtsstruktur zu verstehen, um so künstliche Gesichtsausdrücke zu generieren, die Emotionen genauer darstellen und natürlicher erscheinen.

Die japanischen Wissenschaftler sehen ihre Studie aber noch deutlich weitgehender. Roboter könnten mithilfe der Ergebnisse etwa dazu gebracht werden, Emotionen von Menschen zu erkennen. Zudem könnten damit computergenerierte Gesichtsbewegungen verbessert werden, wie sie etwa in Filmen und Computerspielen vorkommen.

Auch weitere Anwendungen jenseits der Robotertechnik seien möglich, meinen die Forscher. So könnten die Grundlagen zur Verbesserung von Gesichtserkennungstechnik sowie der medizinischen Diagnose von Anomalien im Gesicht verwendet werden. Bisher seien Ärzte bei der Diagnostik auf ihre Intuition angewiesen.

(olb)