Human Robot Interaction: Neugierige Roboter und solche, die neugierig machen

Neugier fördert das Lernen. Roboter sollen neugierig sein, damit sie mehr über sich selbst und ihre Umgebung erfahren wollen.

In Pocket speichern vorlesen Druckansicht 12 Kommentare lesen

(Bild: Softbank Robotics)

Lesezeit: 4 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Die Bedeutung der Neugier im Verhältnis von Mensch und Roboter wird bei der diesjährigen Konferenz Human Robot Interaction (HRI) aus verschiedenen Blickwinkeln betrachtet: Es geht um Roboter, die Menschen neugierig machen sollen, etwa im Unterricht. Es geht aber auch um Roboter, die selbst begierig darauf sind, Neues zu lernen – und damit um die Frage, wie eng die Grenzen dafür gezogen werden sollen.

Im Einleitungstext des Workshops Robot Curiosity in Human Robot Interaction erscheint Neugier fast als so etwas wie der Heilige Gral der Künstlichen Intelligenz. "Die Erschaffung autonomer Roboter, die aufgrund ihnen innewohnender Neugier kontinuierlich lernen, könnte zu Durchbrüchen bei Künstlicher Intelligenz führen", heißt es dort. Allerdings sei in der Forschung der Aspekt der Interaktion zwischen Mensch und Roboter bisher noch zu wenig beachtet worden.

Jessica Barfield (University of Tennessee Knoxville) berichtete von einer Online-Umfrage, bei der die Teilnehmer einen Roboter beurteilen sollten, der als Beziehungsratgeber auftrat. Die Auswertung der Antworten ergab unter anderem, dass der Roboter vor allem dann als neugierig empfunden wurde, wenn seine Fragen den Eindruck erweckten, nicht einfach nur einer vorgegebenen Programmierung zu folgen.

Edith Law von der kanadischen University of Waterloo nannte Überraschung, unvollständige Information sowie soziale Einflüsse als hauptsächliche Methoden, Neugier anzuregen. Bei einem Spiel zwischen Mensch und Roboter, bei dem es darum ging, bestimmte Steine zu erkennen und richtig zuzuordnen, sei der Roboter insbesondere dann als neugierig empfunden worden, wenn er nach der Meinung des menschlichen Mitspielers gefragt habe.

Die Roboter in diesen Experimenten waren entsprechend programmiert oder wurden ferngesteuert. Bei den Forschungen, von denen Georg Martius (Max-Planck-Institut für intelligente Systeme) berichtete, geht es dagegen darum, mit einem Minimum an Vorgaben und menschlicher Kontrolle auszukommen.

Die künstlichen Agenten, mit denen er experimentiert, haben anfangs keinerlei Wissen über die Welt, in der sie sich befinden, oder über ihren eigenen Körper. Sie verfügen lediglich über die Messwerte, die ihre Sensoren übermitteln. Indem sie sich einfach nur bewegen und dabei die Veränderungen dieser Werte beobachten, entwickeln sie nach und nach strukturiertes Verhalten.

Durch welches Prinzip diese Entwicklung gesteuert wird und wie sie sich mathematisch beschreiben lässt, sei nach wie vor eine offene Frage. Manche Forscher sehen die Minimierung des Vorhersagefehlers als treibende Kraft, andere die Maximierung der Handlungsmöglichkeiten (Empowerment), wieder andere sehen darin das Streben eines komplexen Systems nach dynamischer Balance.

Matthias Kubisch (Jetpack Cognition Lab) präsentierte mit flatcat einen Roboter, der an diese Ideen anknüpft. Er besteht aus lediglich drei Gliedern, deren Winkel zueinander er verändern und mit denen er auch auf sie wirkende Kräfte wahrnehmen kann. Als Reaktion kann er einer solchen Kraft entgegenwirken, sie verstärken, ein Element versteifen oder es lösen. Aus diesen vier simplen Basisverhaltensweisen lernt flatcat durch intrinsische Motivation nach und nach komplexere Bewegungsabläufe, die ihn wie ein Lebewesen erscheinen lassen.

Während flatcat über kein Modell von sich und seiner Umwelt verfügt, will Shangguan Zhegong (ENSTA Paris) mit seinen Experimenten Robotern zu einer Selbstwahrnehmung verhelfen. Er experimentiert mit dem humanoiden Roboter Zeno. Der verfüge über sechs Motoren, um sein Gesicht zu bewegen, kenne aber nur den Status der Motoren, nicht den damit verbundenen Gesichtsausdruck. Mithilfe einer Datenbank mit 200.000 Bildern seines Gesichts und den damit verbunden Motordaten soll er lernen, seine Mimik besser zu kontrollieren. Zukünftige Experimente sollen dann zeigen, dass er sich dank des so gewonnenen Selbstbewusstseins im Spiegel erkennen sowie sich von andersartigen wie auch von gleichartigen Robotern unterscheiden kann.

Während Zeno gewissermaßen sich selbst neugierig erforscht, soll der Pepper-Roboter, mit dem Hae Seon Yun an der Humboldt Universität zu Berlin experimentiert, Schülerinnen und Schüler neugierig machen. Da Pepper über keine ausgeprägte Mimik verfügt, konzentriert die Forscherin sich vorerst auf Gesten, die von professionellen Lehrkräften abgeguckt und auf den Roboter übertragen werden. Die bisherigen Ergebnisse seien noch sehr vorläufig, aber durchaus ermutigend.

Ob und wann eines Tages Roboter in Schulen unterrichten, ist eine offene Frage, ebenso wie die, wer dann wohl neugieriger ist und wer von wem mehr lernt: die Schüler vom Roboter oder umgekehrt?

(olb)