Mit Robotern im Kontakt

Humanoide Roboter müssen nicht der Weisheit letzter Schluss für die Weiterentwicklungen in der Robotik sein. Für Menschen spielen unterschiedliche Körperformen bei der Kommunikation keine entscheidende Rolle, solange die ausgesendeten Signale eindeutig zu interpretieren sind. Roboterkonstrukteuren kann dies die Arbeit wesentlich erleichtern.

vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 8 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Müssen Roboter, die im engen Kontakt mit Menschen stehen, selbst menschenähnlich sein? Nicht unbedingt, lautete die vorherrschende Meinung beim Symposium „New Frontiers in Human-Robot Interaction“, das Anfang April im Rahmen der Jahrestagung der britischen „Society for the Study of Artificial Intelligence and Simulation of Behaviour“ in Leicester Fragen des Verhältnisses von Mensch und Roboter diskutierte. Leila Takayama von der US-Firma Willowgarage wies in ihrem Vortrag auf einen springenden Punkt hin. Sie hatte bei ihren Studien beobachtet, dass Besitzer von Haustieren weniger Schwierigkeiten im Umgang mit Robotern hatten. Die unterschiedlichen Körperformen spielen bei der Kommunikation über Speziesgrenzen hinweg offenbar keine entscheidende Rolle. Wichtig ist es vielmehr, die ausgesendeten Signale richtig zu deuten. Ein Mensch versteht es, wenn ein Hund mit dem Schwanz wedelt oder die Ohren spitzt, auch wenn er selbst nicht über diese Ausdrucksmöglichkeiten verfügt.

Während der Kaffeepausen hatten die Symposiumsteilnehmer Gelegenheit, sich mit dem humanoiden Roboter Nao vertraut zu machen.

(Bild: Hans-Arthur Marsiske)

Wenn der Roboterkopf Eddie von der Technischen Universität München vor Überraschung seine Ohren herausklappt, lässt sich das daher durchaus als Spiegelung der Emotionen des menschlichen Gegenübers begreifen, obwohl dessen Ohren unbeweglich geblieben sind. Eddie analysiert die Mimik des Menschen anhand von 113 Markierungspunkten im Gesicht, leitet daraus dessen Gefühlszustand ab und übernimmt ihn. Trotz beachtlicher 23 Freiheitsgrade im Gesicht und weiterer fünf im Nacken ist Eddies Mimik für einen ungeübten Betrachter allerdings nicht immer so leicht zu deuten wie bei einem Menschen. Das Forschungsprojekt, das Stefan Sosnowski in Leicester vorstellte, mag daher zu einem besseren Verständnis der mimischen Kommunikation, aber nicht unbedingt zu Robotern mit mimischen Fähigkeiten führen.

Es gibt andere Möglichkeiten nichtsprachlicher Kommunikation, die mit erheblich geringerem Aufwand zu realisieren sind. Kotaro Funakoshi vom Honda Research Institute etwa stellte einen humanoiden Roboter vor, der durch ein blinkendes Licht dem menschlichen Gesprächspartner signalisiert, dass er ihm zuhört. Funakoshis Vortrag konzentrierte sich auf die Frage, wie lange der Roboter mit der Antwort warten soll, nachdem der Mensch seine Rede beendet hat. Eine zu rasche Antwort kann zu Gesprächskollisionen führen, sodass beide gleichzeitig sprechen. Eine zu lange Pause hingegen kann als Unaufmerksamkeit gedeutet werden. Im Experiment, bei dem der Roboter die Reservierung eines Hotelzimmers entgegennehmen sollte, erwies sich das Blinklicht als geeigneter Ersatz für die menschliche Mimik und Gestik, die üblicherweise Aufmerksamkeit signalisiert.

Neben dem gut einen Meter großen Androiden iCub, den sieben europäische Universitäten entwickeln, wird der humanoide Roboter Nao von der französischen Firma Aldebaran Robotics mehr und mehr als Forschungsplattform genutzt. Catherine Pelachaud (LTCI Telecom ParisTech) berichtete von einem vor wenigen Monaten begonnenen Forschungsprojekt, bei dem Nao-Roboter Geschichten erzählen und mit passenden Gesten vortragen sollen. Voraussetzung dafür ist eine detaillierte Analyse der Körpersprache von menschlichen Geschichtenerzählern. Um die Gestik auf den Nao zu übertragen, stützen sich die Forscher auf die Erfahrungen mit dem virtuellen Agenten „Greta“ und nutzen die Sprachen FML (Functional Markup Language) und BML (Behavior Markup Language).

Wenn Stefan Sosnowski Überraschung zeigt, erkennt Roboterkopf Eddie die Emotion, drückt sie aber etwas anders aus.

(Bild: Kurt Fuchs, CoTeSys)

Die Entwicklung von Körpersprache ist jedoch nicht an einen menschenähnlichen Körper gebunden. So geht es im Rahmen des EU-Projekts „CommRob“ darum, einen Robotereinkaufswagen zu entwickeln, der die Kunden im Supermarkt mit subtilen Gesten auf bestimmte Produkte aufmerksam macht. Cristian Bogdan vom Royal Institute of Technology in Stockholm trug Ergebnisse der ersten Experimente vor. Dabei zeigte sich, dass deutlich mehr eingekauft wurde, wenn der Roboter nicht nur per Sprachausgabe oder über das Display auf die Artikel hinwies, sondern dabei auch die Geschwindigkeit verlangsamte.

Bogdan musste allerdings einräumen, dass manche Nutzer sich gegen die Bewegungen des Roboters gewehrt und ihn auf den alten Weg zurückgedrängt hätten. Überhaupt sei die Interaktion zwischen Mensch und Roboter während des Laufens schwierig zu realisieren: Das Laufen selbst lenkt ab, der Touchscreen ist schwierig zu bedienen, Sprachkommunikation wird durch Motorgeräusche und Vibrationen gestört. „Das Design von Bewegungsabläufen“, erklärte Bogdan, „ist sehr viel komplexer als das Design der ersten Bewegung.“

Noch komplexer ist die Entwicklung von Robotern zu dauerhaften und verlässlichen Gefährten des Menschen, mit der sich unter anderem das EU-Projekt „Companions“ beschäftigt. Ein solcher Gefährte sollte etwa höflich, aber nicht zu höflich sein, beschrieb Yorick Wilks von der University of Sheffield eines der auftauchenden Probleme. Ohne eine zentrale Aufgabe soll er eine angemessene, vielleicht emotionale Beziehung zum Menschen aufbauen und die Konversation mit ihm möglichst ein Leben lang durchhalten. Das sei etwas völlig anderes als die heute existierenden Chatbots oder die für spezifische Aufgaben entwickelten Internetagenten.

Auch die äußere Gestaltung eines solchen Robotergefährten ist alles andere als trivial. Braucht er zum Beispiel ein Gesicht? Viele Menschen würden abwehrend auf schlecht mit der Rede synchronisierte Lippenbewegungen reagieren, sagte Wilks. Da könnte es empfehlenswerter sein, beim Roboter von vornherein auf einen Mund zu verzichten.

Augen, die selbst nichts sehen, auf dem Iromec-Roboter – solche Ungereimtheiten werden von Kindern schnell erkannt.

(Bild: Patrizia Marti, University of Siena)

Aber egal, ob der Roboter nun tatsächlich einen Mund hat oder nicht: Er muss wissen, wann er ihn halten muss. Die Datensicherheit hob Wilks als einen ganz zentralen Aspekt hervor. Ein Robotergefährte speichert mit der Zeit mehr und mehr Wissen über seinen Nutzer. Wie kann ein sorgfältiger und diskreter Umgang mit diesem Wissen gewährleistet werden, insbesondere wenn der Roboter mit anderen Robotern oder Agenten, etwa in Hotels, Krankenhäusern oder Reisebüros verhandelt?

Wer über mehrere Jahre von so einem Roboter begleitet und unterstützt wurde, dürfte kaum Probleme damit haben, wenn dieser Gefährte im Alter mehr und mehr Pflegeaufgaben übernimmt. Die gegenwärtig kursierenden Konzepte für den Einsatz von Robotern in der Altenpflege wecken dagegen häufig unangenehme Gefühle, was damit zusammenhängen mag, dass die heutigen Alten in ihrem Leben keinerlei Erfahrungen mit Roboter-Technik sammeln konnten. Werden sie nicht hinters Licht geführt und in ihrer Würde verletzt, wenn ihnen auf einmal ein wie ein kleines Kuscheltier gestalteter Roboter als Gefährte vorgesetzt wird? Amanda Sharkey von der University of Sheffield behandelte in ihrem Vortrag unter anderem solche ethischen Fragen des Einsatzes von Robotern in der Altenpflege. Vielleicht sind Roboter besser als gar nichts? Sharkey stellte die Frage in den Raum, ohne eine definitive Antwort geben zu können.

Weniger strittig sind Roboterexperimente mit Kindern. Patrizia Marti von der University of Siena zeigte eindrucksvolle Videoaufnahmen von solchen Studien, die im Rahmen des EU-Projekts Iromec (Interactive Robotic Social Mediators as Companions) entstanden sind. Hierbei geht es darum, die Möglichkeiten von Robotik-Technik zu erkunden, um Kinder mit geistigen oder körperlichen Behinderungen in ihrer Entwicklung zu unterstützen.

Marti sieht ein wachsendes Interesse an ästhetischen Aspekten interaktiver Systeme, hob aber hervor, dass dies nicht in erster Linie die äußere Erscheinung der Roboter betreffe, sondern die Gestaltung der Interaktion selbst. Tatsächlich hatten die Kinder keine Probleme, eine Beziehung zu dem Iromec-Roboter herzustellen, obwohl er keinerlei Ähnlichkeiten mit einem Lebewesen hat, sondern eher einem fahrenden Drucker ähnelt. Über ein Display kann der Roboter allerdings einfache Gesichtsausdrücke darstellen und damit Emotionen signalisieren. Ein modularer Aufbau ermöglicht, die Ausdrucksmöglichkeiten dem jeweiligen Zweck anzupassen. So kann das Display abgedeckt oder auch eine Art Fell auf den Roboter gelegt werden, dessen Haare sich bei Annäherung eines Menschen aufrichten.

Für die Arbeit mit autistischen Kindern sei es in der Regel günstiger, mit weniger Ausdrucksvarianten zu arbeiten, sagte Marti. Als besonders wichtig nannte sie die Interaktion über Bewegungen. Problematisch sei ein Gesicht wie das auf dem Display, dessen Augen selber nicht sehen können. Solche Mängel entdeckten Kinder sehr schnell.

Die Roboterzukunft jedenfalls droht offensichtlich nicht als unvermeidliches Schicksal, sondern wird von verantwortungsvollen Wissenschaftlern und insbesondere Wissenschaftlerinnen, die die Mehrheit der Vorträge bestritten, gestaltet – diesen Schluss jedenfalls legt das Symposium „New Frontiers in Human-Robot Interaction“ nahe. Ein gutes Zeichen dafür ist auch der zunehmende Einfluss benachbarter Disziplinen wie Sozialwissenschaften, Psychologie und Philosophie. (jk)