ICAART 2017: Schau mir in die Augen, Roboter – oder lieber nicht?

Von Blicken und Gesten: So einleuchtend die Forderung nach sozial intelligenten Robotern auch sein mag, die Vanessa Evers am Eröffnungstag der Konferenz ICAART 2017 in Porto formulierte, so mühsam gestaltet sich ihre Umsetzung.

In Pocket speichern vorlesen Druckansicht 9 Kommentare lesen
ICAART 2017: Schau mir in die Augen, Roboter – oder lieber nicht?

(Bild: Tomoko Koda)

Lesezeit: 4 Min.
Von
  • Hans-Arthur Marsiske

Roboter stehen beim Erkennen sozialer Konstellationen vor einer Unschärfe, denn die Interaktion variiert auch je nach kulturellem Kontext. So untersucht die Informatikerin Tomoko Koda (Osaka Institute of Technology) die Augenbewegungen von Gesprächsteilnehmern in verschiedenen Kulturen. Studien hätten gezeigt, so Koda, dass Japaner die Blickrichtung im Dialog mit anderen häufiger wechselten als etwa Australier und Schweden. Die sehen ihre Gesprächspartner die Hälfte der Zeit an, wogegen Engländer nur zu 38 Prozent den direkten Blickkontakt halten.

Um die Auswirkungen unterschiedlichen Blickverhaltens auf die Kommunikation zu untersuchen, hat Kodas Forschungsteam einen animierten Agenten entworfen, der vier verschiedene Blickrichtungen im Repertoire hat: direkter Blick, vager Blick (5 Grad am Gesprächspartner vorbei) sowie zwei ausweichende, vom Gesprächspartner weg gerichtete Blicke, deren Unterscheidung allerdings nicht ganz deutlich wurde. Koda hofft, mit ihren Forschungen zu einem besseren Verständnis kultureller Unterschiede beitragen zu können. "Wenn Japaner Sie im Gespräch nicht ansehen, heißt das nicht, dass sie Ihnen nicht zuhören", erklärte Koda. Da die Experimente noch laufen, konnte sie noch keine greifbaren Ergebnisse präsentieren, vermittelte aber einen nachhaltigen Eindruck von der Komplexität menschlicher Kommunikation.

Kommunizieren bedeutet eben mehr als miteinander sprechen. Und selbst das Sprechen erfolgt nicht immer in vollständigen Sätzen. Das betonte Divesh Lala, der an der Kyoto University erforscht, wie sich Basketball-Spieler untereinander durch Bewegungen, Gesten oder knappe Kommandos verständigen. Hierfür hat er ein Videospiel entwickelt, bei dem ein Mensch zusammen mit einem Softwareagenten gegen zwei vom Computer gesteuerte Agenten antreten kann. Es gehe nicht darum, Basketball möglichst realistisch abzubilden, betonte er. Ziel sei es vielmehr, einen Rahmen zu schaffen, in dem die Kommunikation zwischen menschlichem Spieler und virtuellem Mitspieler beobachtet werden kann. Der virtuelle Spieler werde dabei tatsächlich von einem Menschen gesteuert, was den Teilnehmern des Experiments aber verborgen bleibe. Deren Bewegungen wurden mithilfe einer Kinect-Kamera erfasst.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Es zeigte sich, dass die Mitteilungen im Verlauf der viertelstündigen Spiele komplexer wurden, was den Erwartungen entsprach. Die Forscher kategorisierten die Äußerungen der Spieler und stellten fest, dass sie sich zu etwa einem Drittel aufs Zuspielen des Balls bezogen. Etwas überraschend war dagegen, dass die zweithäufigste Kategorie Lob und Anerkennung für gelungene Aktionen darstellte. Da die Versuchspersonen davon ausgingen, mit einem Softwareagenten zu spielen, konnten sie kaum erwarten, dass solche Äußerungen einen Einfluss auf den weiteren Verlauf des Spiels haben würden – es sei denn als Selbstbestätigung.

Ziel der Forschungen, so Lala, ist die Entwicklung eines komplett autonomen Basketball-Agenten. Die dabei gewonnenen Erkenntnisse zur multimodalen Kommunikation zwischen Mensch und Maschine dürften aber auch für andere Anwendungen hilfreich sein, etwa bei Robotern, die Opfern in einer Katastrophenumgebung helfen sollen.

Die Betreuung von alten Menschen hatte dagegen Aleksandar Jevtić von der Universitat Politècnica de Catalunya in Barcelona im Blick. Dies ist das Beispielszenario, anhand dessen im Rahmen des gerade gestarteten vierjährigen EU-Forschungsprojekts SOCRATES Verfahren entwickelt werden sollen, um die Qualität der Interaktion zwischen Mensch und Roboter besser bewerten zu können. Generell ist die Messbarkeit und Vergleichbarkeit der Leistungen von Robotern und Agentensystemen angesichts von deren Komplexität ein Problem, das in mehreren Vorträgen aufgegriffen wurde. So diskutierte Jan Kantert (Universität Hannover) die Schwierigkeiten, die Robustheit offener, verteilter Agentensysteme zu messen.

Eine Herausforderung besteht darin, ein angemessenes Zeitfenster zu definieren, innerhalb dessen etwa ein Verkehrsleitsystem nach einer Störung durch eine blockierte Straße wieder den angestrebten Verkehrsfluss gewährleisten soll. Sven Tomforde von der Universität Kassel stellte ein Verfahren vor, den Grad der Selbstorganisation eines Multiagentensystems anhand der Häufigkeit der Kommunikation zwischen den einzelnen Agenten zu messen. Dafür sei es erforderlich, einen Referenzwert zu ermitteln, der das "normale" Kommunikationsverhalten darstelle, etwa zwischen den einzelnen Ampeln eines Verkehrsleitsystems. Auch hier stellte sich ein ähnliches Problem: Wie groß soll das Zeitfenster sein, um diesen Referenzwert zu ermitteln?

Der Besucher von Konferenzen zu KI, Agenten und Robotik wird manchmal ganz schön durchgeschüttelt im Wechsel zwischen ehrgeizigen Ideen von sozial agierenden Robotern und der mühsamen Entwicklung von Standards und Koeffizienten. Und das ist gut so. Schließlich ist beides notwendig, wenn Menschen und Roboter gut miteinander auskommen sollen. (ea)