Mensch-Roboter-Interaktion: Die Semantik der menschlichen Handlungen

Während des Workshops "Robotics in the 21st Century" zeigt sich, die Robotik setzt darauf, dass der Mensch sich selbst besser versteht. Bewegungen und Emotionen müssen für eine gelungene Mensch-Maschine-Interaktion richtig gedeutet werden können.

In Pocket speichern vorlesen Druckansicht 15 Kommentare lesen
Roboterausstellung

(Bild: dpa, Ole Spata)

Lesezeit: 5 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

In Uslar bei Göttingen diskutieren auf dem internationalen Workshop Robotics in the 21st Century noch bis Mittwoch Wissenschaftler über die Herausforderungen, vor denen die Robotikforschung in diesem Jahrhundert steht. Anders als der Titel vielleicht erwarten lässt, geht es jedoch weniger um einen futuristischen Ausblick auf die Entwicklung der Technik in den kommenden Jahrzehnten, sondern eher um die Identifizierung und Erörterung der wichtigsten Fragen, die auf dem Weg in die Zukunft gelöst werden müssen.

Hervorgegangen ist die Veranstaltung aus dem deutsch-japanischen Universitätsnetzwerk HeKKSaGOn. Innerhalb dieser Gruppe von sechs Universitäten entstand vor eineinhalb Jahren der Wunsch, die Robotik stärker hervorzuheben und neue Forschungskooperationen anzuschieben, wie Tagungsleiter Florentin Wörgötter (Uni Göttingen) erklärte. Eine Förderung durch die Volkswagen-Stiftung machte das hochkarätig besetzte Treffen jetzt möglich.

Dabei stellte Oliver Brock (TU Berlin) in seinem Eröffnungsvortrag zunächst die Frage, inwieweit die immer noch recht junge Disziplin der Robotik überhaupt schon den Status einer Wissenschaft habe oder nicht eher mit begründeten Vermutungen arbeite. Aber ob nun Wissenschaft oder nur Proto-Wissenschaft: Brock sah mindestens zwei große Problemfelder, die er als "Fluch der Dimensionalität" und "Fluch der Interaktion" bezeichnete. In beiden Fällen geht es darum, die Menge der anfallenden und in vertretbarer Zeit zu verarbeitenden Daten auf ein handhabbares Maß zu reduzieren.

Im Bereich der Bewegungssteuerung könne eine solche Dimensionsreduzierung mithilfe von "motion primitives" erfolgen, also einfachen, grundlegenden Bewegungsmustern, die zu komplexeren Bewegungen kombiniert werden können. Als Beispiel verwies Brock auf ein Experiment, bei dem 3400 Griffe, die in einem Experiment von Menschen ausgeführt wurden, in einem Graphen mit nur sechs Knoten und neun Kanten abgebildet werden konnten.

Wie sich umgekehrt aus wenigen Daten viel herauslesen lässt, demonstrierte Gentiane Venture von der Tokyo University of Agriculture and Technology: Ihre Forschungsgruppe ließ Versuchspersonen auf dem Balance Board der Spielkonsole Wii Gymnastikübungen durchführen. Allein aus den am Boden gemessenen Kräften ließen sich 90 Prozent der Übungen korrekt erkennen. Als Schauspielschüler beim Laufen auf der Stelle Glück, Trauer, Wut oder neutrale Emotion ausdrückten, lag die Trefferquote bei 80 Prozent. Die menschliche Körpersprache richtig deuten zu können, sei wichtig, wenn Roboter zukünftig immer engeren Kontakt mit Menschen haben sollen, betonte Venture.

Dabei mag auch ein Ansatz helfen, den Tagungsleiter Wörgötter und Yiannis Aloimonos unabhängig voneinander vorstellten: das Verständnis von Handlungen analog zur Sprache mit eigener Grammatik und Semantik. Aloimonos nannte als Beispiel das Einschenken von Flüssigkeit aus einer Flasche in ein Glas. Dafür müsse die Flasche über das Glas gehalten werden, was als unerlässliche Bedingung zur Grammatik der Handlung gehöre. Die konkrete Bewegung der Flasche hänge dann allerdings von den jeweiligen Absichten ab, etwa der gewünschten Füllmenge, und gehöre damit zur Semantik. Wörgötter hob hervor, dass sich auch Objekte auf diese Weise erfassen ließen, indem ihre Einzelteile in eine grammatische Beziehung zueinander gebracht werden.

Aloimonos bezog sich in seinem Vortrag auf die von Noam Chomsky postulierte Universalgrammatik, die jedem Menschen angeboren sei. Das passte gut zu den Ausführungen von Norbert Krüger (University of Southern Denmark), der als eine große Forschungsfrage für das 21. Jahrhundert formulierte, was Robotern als A-Priori-Wissen fest einprogrammiert werden soll und was sie lernen sollen.

Bei der Antwort könnten wiederum Forschungen helfen, von denen Yasuo Kuniyoshi (University of Tokyo) berichtete: Das Computermodell eines 32 Wochen alten Fötus soll helfen zu verstehen, wie sich durch die spontanen Bewegungen im Mutterleib beim Menschen ein Gefühl für den eigenen Körper entwickelt. Ein solches Körperschema sei von zentraler Bedeutung für die Herausbildung sozialer Kompetenz, erläuterte Kuniyoshi. Es gebe Hinweise, dass Autismus und andere Entwicklungsstörungen auf eingeschränkte Beweglichkeit im Uterus zurückgingen.

Das unterstrich vielleicht am deutlichsten eine Aussage, die von mehreren Referenten geäußert wurde: die Beschäftigung mit Robotik trage dazu bei, viel über sich selbst und den Menschen zu lernen. Alin Albu-Schäffer vom Deutschen Zentrum für Luft- und Raumfahrt sprach von einem "konstruktivistischen Ansatz zum Verständnis wesentlicher Fähigkeiten zur Manipulation und Fortbewegung". Carme Torras vom spanischen Institut de Robòtica i Informàtica Industrial gab allerdings zu bedenken, dass Roboter nicht nur zu einem besseren Verständnis des Menschen führen werden: "Die von uns geschaffenen Beziehungen verändern uns", sagte sie.

Torres, die selbst als Science-Fiction-Autorin hervorgetreten ist, zitierte den SF-Autor Neal Stephenson, demzufolge "nur die Science-Fiction ein umfassendes Bild zukünftiger Anwendungen und ihrer gesellschaftlichen Bedeutung geben" könne und verwies auf das vor wenigen Jahren an der Arizona State University gegründete Center for Science and the Imagination, das genau dieses Potenzial zu nutzen versucht. Bei all der harten Wissenschaft (oder Proto-Wissenschaft) gab es dann also am Ende doch noch eine Prise Futurismus. Wie schön. (kbe)