Menschenähnliches Gesicht für Roboter

Mask-Bot. Foto: Uli Benz/TU München

Wissenschaftler der TU München haben eine neue Technik entwickelt, um Robotern individuelle Gesichter mit einem realistischen Minenspiel geben zu können

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Um Roboter für Menschen umgänglicher zu machen, entwickeln vor allem japanische Techniker Humanoide, die möglich dem Menschen ähneln sollen, zumindest dem Aussehen nach. Die Humanoiden, gerne mit einem Kindchengesicht und auch sehr gerne mit weiblichem Aussehen, sollen für die alternde japanische Gesellschaft als Pfleger oder für Dienstleistungen eingesetzt werden, sie könnten auch Lehrer oder auch Freunde ersetzen. Wahrscheinlich steckt hinter den Interessen der auch in der Literatur schon lange bearbeitete Traum, einen Roboter so lebensecht schaffen zu können, dass er zumindest für kurze Zeit mit einem Menschen verwechselt werden könnte.

Bei einem Humanoiden müssen Gesten, Bewegungen, Mimik, Aussehen von Körper und Gesicht, aber auch Stimme, Augen und nicht zuletzt die "Haut" stimmen, auf der anderen Seite müssen auch kleine Unterschiede gewahrt werden, damit die Roboter nicht wegen allzu großer Ähnlichkeit unheimlich werden. Jetzt haben Wissenschaftler am Institut für Kognitive Systeme der TU München mit japanischen Wissenschaftler eine neue Möglichkeit entwickelt, wie Roboter ein menschenähnliches Gesicht erhalten können.

Normalerweise wird versucht, die komplizierte Gesichtsmimik mit zahlreichen Minimotoren mechanisch zu reproduzieren. Das ist allerdings sehr aufwendig und störanfällig. Die Wissenschaftler verzichten ganz auf die Mechanik und verwenden für ihren Mask-Bot nur eine durchsichtige, innen mit einer Leuchtschicht-Imprägnierung ausgestattete Kunststoffmaske, in die von hinten mit einem Beamer und durch eine Fischaugenlinse das 3D-Bild eines Gesichts projiziert wird, das auch seitlich gesehen noch realistisch wirken soll.

Allerdings erzeugt die hell erleuchtete Maske zwar einen relativ realistischen Eindruck eines individuellen Gesichts, bei dem die Mimik ziemlich überzeugend ist, aber das Gesicht wirkt durch das durchscheinende Licht gespenstisch, bei hellem Sonnenschein dürfte die Kenntlichkeit des Gesichts schwinden, selbst wenn der kleine Beamer so stark sein soll, dass zumindest die Räume nicht verdunkelt werden müssen.

Eingesetzt werden soll die Technik für Videokonferenzen. Es reiche bereits ein zweidimensionales Foto als Grundlage für das 3D-Bild, dessen Mimik dann von einem Programm gesteuert wird. Dafür wurde das Minenspiel von Menschen aufgezeichnet und versucht, Gesichtsausdrücken Lauten zuzuordnen, um so das Gesicht beim Sprechen entsprechend zu bewegen. Ein weiteres Programm sorgt dafür, dass das Gesicht auch die richtigen Emotionen zeigt. Bislang kann Mask-Bot nur nachsprechen, was über eine Tastatur eingegeben wird. Die Stimme ist nicht individuell, man kann lediglich bestimmen, ob es sich um eine Männer- oder Frauenstimme handelt und wie laut sie spricht. Gesprochene Sprache verstehe das System allerdings kaum, ebenso wenig kann es frei sprechen und auf das Gegenüber reagieren.

Mask-Bot. Foto: Uli Benz/TU München

Beim nächsten Prototypen soll der Talking Head Mask-Bot in einen mobilen Roboter integriert werden, der sich im Raum bewegt und damit auch das Gesicht aus allen Perspektiven, auch von unten und oben, zeigt, was schon schwieriger werden dürfte. Zumal auch die Kamera schrumpfen und im Kopf verschwinden mussUnd es verwundert auch nicht, wenn japanische Wissenschaftler, die am Projekt beteiligt sind, auch eine andere Anwendung sehen: "Neben der Verwendung in Videokonferenzen könnten solche Systeme bald Gesprächspartner für ältere Menschen sein, wenn sie alleine Zeit verbringen müssen", sagt Takaaki Kuratate.

Bis sie zu einem wirklichen Gesprächspartner werden, dürfte noch lange Zeit vergehen, wobei natürlich auch hier die Frage entsteht, wie individuell und damit auch autonom man humanoide Roboter haben will, selbst wenn dies nur das Sprachprogramm betrifft. Es nutzt ja auch nicht viel, wenn ein Gesicht dem eines Menschen ähnelt und nur Gefühle zeigt, die künstliche Intelligenz müsste auch Gefühle haben, also in dem Sinn, dass sie selbst auch eigenwillig agieren und reagieren, lachen und weinen kann. Das ist bei Videokonferenzen nicht notwendig, wenn es aber um einen Gesprächspartner ginge, der Menschen zumindest zeitweise ersetzen soll, wäre dies wohl unabdingbar.