IROS: Roboter lernen Lachen
Auf der Robotik-Konferenz IROS sprachen Roboterforscher darĂĽber, wie das menschliche Verhaltensvorbild auf Roboter ĂĽbertragen werden kann.
Die Aussage klingt erst einmal überraschend. "Bei Robotik geht es um mehr als nur Roboter", sagte Oussama Khatib, Professor für Informatik an der Stanford University und hoch angesehener Roboterforscher, am Sonntag auf der Robotik-Konferenz IROS im portugiesischen Vilamoura. Doch die Zuhörer seines Vortrags wirkten nur mäßig verblüfft. Denn Khatib sprach im Rahmen des Workshops Human Behavior Understanding zum Thema "Robots and the Human". Da musste er wohl niemanden mehr davon überzeugen, dass es bei der Erforschung und Entwicklung von Robotern immer auch um ein tieferes Verständnis des Menschen geht.
Ein besonderes Anliegen Khatibs war die Ganzkörper-Mobilität von Robotern, wobei er sich in seinen Beispielen ausschließlich auf zweibeinige, humanoide Roboter bezog. Die sollten nicht nur laufen, sondern mit der Welt interagieren können. Während es heute noch schwierig genug ist, einen Manipulatorarm auf einem mobilen Roboter zu steuern, hat Khatib bereits "Multi-Kontakt-Manipulation" im Blick. Um einer Maschine solche komplexen Bewegungen beizubringen, müssen diese erst einmal beim Menschen besser verstanden werden. Der lernt schließlich über viele Jahre, die "physio-mechanischen Möglichkeiten des Körpers" zu nutzen und den Muskelaufwand zu minimieren, indem er gezielt seinen Knochenbau einsetzt, etwa wenn es darum geht, einen Tisch beiseite zu schieben oder einen Ball zu werfen. Über detaillierte Bewegungsstudien soll daher ein Atlas menschlicher Bewegungen erstellt werden, um diese dann umso besser mithilfe von Robotern rekonstruieren zu können.
Am menschlichen Vorbild orientierten sich auch andere Beiträge des Workshops. Daphne E. Karreman von der University of Twente etwa berichtete von dem Projekt FROG (Fun Robotic Outdoor Guide), bei dem ein Roboter kleine Touristengruppen zu Sehenswürdigkeiten führen soll. Dafür haben die Forscher erst einmal das Verhalten menschlicher Touristenführer genau beobachtet und insbesondere deren nicht-verbales Verhalten studiert. Der Roboter soll voraussichtlich im Jahr 2014 erstmals zum Einsatz kommen. Ein erster Designentwurf sieht keine humanoide Körperform vor – woraus sich die Frage ergibt, wie die Gestik eines Menschen auf den Roboter übertragen werden kann.
Ebenfalls noch in den Anfängen befindet sich das EU-Projekt ILHAIRE, von dem Maurizio Mancini (University of Genoa) berichtete. Hier geht es zum einen darum, Lachen automatisch zu erkennen und verschiedene Typen des Gelächters (höflich oder ausgelassen) zu unterscheiden. Dafür entwickelten die Forscher den Body Laughter Index (BLI), der die Körperbewegungen, etwa von Kopf und Schultern, erfasst und daraus ableiten soll, ob eine Person lacht. Getestet wurde der BLI unter anderem mit Videos der Skype Laughter Chain auf Youtube. Dabei gab es jedoch noch Abweichungen zu den Einschätzungen menschlicher Versuchspersonen. Das ist kaum überraschend, da das Geräusch des Lachens bislang ebensowenig erfasst wurde wie der Gesichtsausdruck.
Bis zum Ende des Projekts im Jahr 2014 soll aber nicht nur die Lachdetektion verbessert werden, sondern das Lachen auch synthetisiert werden, sodass es Avataren und Robotern als Kommunikationsmittel zur Verfügung steht. Wenn das gelänge, wäre die Forschung mal wieder der Science-Fiction voraus, die zwar depressive Roboter und Computer kennt, aber keine, die lachen. Es könnte auch leicht etwas Unheimliches haben: Woher sollen wir wissen, ob ein Roboter mit uns lacht – oder über uns? (anw)