Roboter mit Körpersprache und Tastsinn
Roboter sollen für den Menschen ein guter Gefährte sein. Aber was macht so eine Maschine zu einem guten Gefährten? Auffallend ist, dass sich die Forscher von der Idee zu verabschieden scheinen, dass Roboter, die mit Menschen interagieren, selber menschenähnlich sein müssten.
- Hans-Arthur Marsiske
Roboter sollen für den Menschen ein guter Gefährte sein. Das ist ein Ziel vieler Roboterentwickler und wohl auch der potenziellen Anwender. Aber was macht so eine Maschine zu einem guten Gefährten? Diese Frage zog sich wie ein roter Faden durch die Diskussionen am ersten Tag des zweitägigen Symposiums New Frontiers in Human-Robot Interaction, das im Rahmen der Jahrestagung der Society for the Study of Artificial Intelligence and Simulation of Behaviour in Leicester stattfindet.
Roboter mit Körpersprache und Tastsinn (3 Bilder)
ASE-Robot
Auffallend ist, dass sich die Forscher von der Idee zu verabschieden scheinen, dass Roboter, die mit Menschen interagieren, selber menschenähnlich sein müssten. Selbst in Japan, wo Roboter traditionell sehr liebevoll anhand natürlicher Vorbilder gestaltet werden, weicht dieses Dogma offenbar langsam auf. Menschenähnlichkeit könne beim Design kein dominierender Faktor sein, erklärte etwa Kotaro Funakoshi vom Honda Research Institute. Dabei ging es ihm in seinem Vortrag vorrangig um die Gestaltung des Sprachdialogs zwischen Mensch und Roboter und dabei vor allem um die Frage, wie lange der Roboter mit seiner Antwort warten soll, nachdem der Mensch seine Rede beendet hat. Eine zu schnelle Reaktion könne dazu führen, dass beide gleichzeitig reden, eine zu lange Pause dagegen könne als Unaufmerksamkeit gedeutet werden.
Funakoshi und sein Forschungsteam führten ein Experiment durch, bei dem der Roboter im Dialog mit Menschen die Reservierung eines Hotelzimmers vornehmen sollte. Dabei signalisierte ein blinkendes Lämpchen dem Kunden, dass der Roboter ihm zuhörte. Für das Experiment wurde zwar ein humanoider Roboter verwendet, das Blinklicht hingegen war alles andere als menschenähnlich. Es erwies sich indessen als wirkungsvoller Ersatz für die ansonsten aufwendig zu realisierende Gestik und Mimik, die in der menschlichen Kommunikation üblicherweise Aufmerksamkeit signalisiert.
Ohne Körpersprache werden Roboter auf lange Sicht nicht auskommen, brauchen dafür aber nicht zwingend einen am Menschen oder anderen Lebewesen orientierten Körperbau. Cristian Bogdan vom Royal Institute of Technology in Stockholm berichtete etwa, wie im Rahmen des EU-Projektes CommRob einem Einkaufswagen die subtile Kommunikation über Körpergesten beigebracht wird. Obwohl diese Gesten bei Tests mit Menschen zumeist gar nicht bewusst wahrgenommen wurden, hatten sie doch deutliche Auswirkungen: Wenn der Roboter-Einkaufswagen die Kunden auf Produkte aufmerksam machte und dabei langsamer fuhr, wurde mehr eingekauft, als wenn die Geschwindigkeit konstant blieb.
Als Inspirationsquelle bleibt der menschliche Körper gleichwohl vorerst unübertroffen. Nach wie vor widmen sich viele Projekte der Nachbildung der menschlichen Körpersprache. So präsentierte Stefan Sosnowski den Roboterkopf "Eddie", der an der Technischen Universität München entwickelt wird. Anhand eines Gesichtsmodells mit 113 Markierungspunkten kann Eddie die Emotionen menschlicher Nutzer erkennen und in seinem eigenen Gesicht spiegeln. Trotz seiner 23 Freiheitsgrade im Gesicht sowie fünf weiterer Freiheitsgrade im Nacken ist Eddie von der Subtilität menschlicher Mimik noch weit entfernt. Dafür verfügt er über Ausdrucksmöglichkeiten, die den meisten Menschen abgehen: So klappt der Roboter gelegentlich wie eine Echse die Ohren vor und zurück.
Leila Takayama von der US-Firma Willow Garage wies in ihrem Vortrag darauf hin, dass Besitzer von Haustieren Roboter zumeist besser zu verstehen scheinen. Offenbar hilft die Erfahrung mit Kommunikation ĂĽber Speziesgrenzen hinweg auch beim Umgang mit Robotern.
Wie wichtig die Gestaltung der Interaktion Mensch-Roboter ist, zeigte auch Patrizia Marti von der Universität von Siena mit eindrucksvollen Videoaufnahmen. Kinder mit geistigen und körperlichen Behinderungen hatten keine Scheu sich auf einen Roboter einzulassen, obwohl der wie ein fahrender Drucker aussah. Entscheidend war, dass der Roboter auf die Kinder reagierte und auf unterschiedliche Weise Emotionen zeigen konnte. Die Maschine konnte etwa mit einer Art Fell ausgestattet werden, das auf Berührung reagierte oder bei Annäherung eines Menschen die Haare aufrichtete. Marti registrierte ein wachsendes Interesse an ästhetischen Aspekten von interaktiven Systemen, plädierte aber dafür, die Ästhetik als Bestandteil der Interaktion und nicht nur der äußeren Erscheinung zu begreifen.
Die Interaktion zwischen Mensch und Roboter wird gewiss von Projekten wie Roboskin profitieren, bei denen es darum geht, Robotern einen Tastsinn zu verleihen. Für die Prototypen werden derzeit die Tastsensoren des iPhones verwendet, es wird aber auch an neuen Sensortechnologien geforscht, wie Perla Maiolino von der University of Genova berichtete. Solche taktilen Sensoren sollen zum einen die Sicherheit erhöhen, indem sie Robotern das reflexartige Zurückweichen bei unerwünschten Berührungen ermöglichen. Sie können aber auch das Greifverhalten verbessern, da sich die Hände besser den zu greifenden Gegenständen anpassen können. Die Forschungen in diesem Gebiet sind aber noch in einem frühen Stadium. Ein Problem ist es etwa, Berührungen zu klassifizieren und schmerzhafte von nicht-schmerzhaften zu unterscheiden. Menschen fällt diese Unterscheidung leicht, Roboter dürften da noch einen dornenreichen Lernprozess vor sich haben. (jk)