Roboter lernt wie ein Baby

UMan, ein an der University of Massachusetts entwickelter Automat, erschließt sich die Funktionsweise von Gegenständen, in dem er sie auf einem Tisch verschiebt.

vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 5 Min.
Von
  • Kristina Grifantini

Um Menschen im Haushalt wirklich helfen zu können, müssen Roboter erst einmal lernen, besser mit unbekannten Situationen umzugehen. Das Problem: Zwar können Forscher die Automaten inzwischen zunehmend intelligent vorprogrammieren, um auch komplexeste Aufgaben zu lösen, doch in einer unstrukturierten Umwelt hilft das kaum weiter.

An der University of Massachusetts Amherst wurde nun ein Roboter entwickelt, der auch Gegenstände verwenden kann, denen er nie zuvor begegnet ist. Der "UMass Mobile Manipulator", kurz UMan genannt, schiebt neue Objekte dazu auf einem Tisch herum, um zu erkennen, wie sie sich bewegen lassen. Hat er die entsprechenden Teile erfasst, experimentiert er mit ihnen – und manipuliert sie dann entsprechend, um neue Aufgaben zu erledigen. "Man kann sich das ähnlich wie bei einem Baby vorstellen, das ein neues Spielzeug entdeckt und alle vorhandenen Teile anfasst, um herausfinden, wie sich was bewegt", sagt Dov Katz, Master-Student an der Universität und Hauptautor der Studie. Er führte die Untersuchung zusammen mit seinem Informatik-Professor Oliver Brock durch.

"Eine der Herausforderungen in der Robotik ist stets, einen Roboter intelligent arbeiten zu lassen, selbst wenn er die Form eines Objektes zuvor noch nicht kennt", sagt Andrew Ng, Computerwissenschaftler an der Stanford University und bekannter Roboterforscher. "Ich denke, diese Arbeit ist ein wichtiger Schritt in diese Richtung." Wenn jemand derzeit einem Automaten beibringen wolle, eine Schere zu benutzen, müsse er sehr viel Software schreiben – Code, der definiert, was eine Schere genau ist und wie sich die zwei Klingen zueinander bewegen. "Katz und Brock schlagen nun einen völlig neuen Ansatz vor, bei dem der Roboter mit der Schere selbst spielen und herausfinden kann, wie die beiden Klingen miteinander verbunden sind."

UMan nutzt eine normale Webcam, um von oben auf den Tisch zu schauen. Durch die Analyse der Unterschiede zwischen nebeneinander liegenden Bildpunkten ermittelt er, wo die Kanten eines Objektes liegen könnten. Dann stupst er den Gegenstand an und verändert anhand der daraufhin erfolgenden Bewegung nötigenfalls das Bild, das er sich zuvor gemacht hat. Dann spielt er weiter mit dem Objekt und schaut zu, wie sich seine Einzelteile in Beziehung zueinander verhalten. Der Gegenstand wird dabei nach vorne und nach hinten geschoben: Der Breite und der Länge nach, außerdem in einem Winkel von 45 Grad zu beiden, falls das notwendig ist, um die Bewegungsabläufe vollständig zu verstehen. Überall dort, wo keine Bewegung mehr möglich ist, identifiziert der Roboter dann ein Gelenk. UMan nutzt dann all diese Informationen, um herauszufinden, wie man das Objekt am besten manipuliert. Der Roboter kann außerdem feststellen, ob es mehrere Gelenke gibt und wie sich diese zueinander verhalten.

Katz gibt offen zu, dass sich sein Team von der Arbeit des Forschers Paul Fitzpatrick hat inspirieren lassen. Der Wissenschaftler am LIRA-Lab der Universität von Genua lässt seinen Roboter ebenfalls ein Objekt "abklopfen", um es von seinem visuellen Hintergrund zu unterscheiden. "An der Amherst-Studie mag ich, dass sie aus einer nahezu gleichen Aktion deutlich mehr Informationen herausholt", sagt er. Das sei das Roboteräquivalent zum menschlichen "Herumfummeln" an einem Gegenstand, um herauszufinden, wie man ihn verwenden könne.

Bis jetzt kann UMan Objekte allerdings nicht aufheben – stattdessen werden sie direkt auf der Tischoberfläche manipuliert. Der Automat hat bereits erfolgreich gelernt, wie er mit Scheren und verschiedenen Holzspielzeugen umgehen kann. UMan ist etwas kleiner als ein Mensch gebaut – sein einzelner Arm ist rund einen Meter lang. Er lässt sich in sieben Freiheitsgraden bewegen, was ihn ähnlich flexibel wie einen menschlichen Arm mache, sagt Katz. Am Arm sitzt wiederum eine Hand mit drei Fingern, die sich drehen lässt.

Die Forscher erwarten, dass UMan seine gewonnenen Erfahrungen bald auch zum Aufnehmen neuer Objekte nutzen kann. In einer Computersimulation wurde bereits ein Lernalgorithmus getestet, mit dem der Automat beim Anblick ähnlicher Objekte diese davon abgeleitet handhabt. "Wenn er gelernt hat, wie eine Schere funktioniert, erkennt er beim Anblick eines Tackers, dass dieser eine ähnliche Struktur hat." In der Simulation konnte UMan Gelenke bereits erkennen, in dem er ein Objekt in eine Richtung drückte – derzeit braucht es noch sechs. Katz Planungen gehen jedoch noch weiter: UMan soll bald berührungslos allein über seine Bilderkennung arbeiten. Die entwickelten Algorithmen sollen im nächsten Jahr in Hardware umgesetzt werden.

"Diese Arbeit sieht mir nach einem Schritt vorwärts aus – hin zu einem menschenähnlicheren Prozess, wie Gegenstände von Robotern manipuliert, erfahren und erfasst werden", meint Josh Smith, der bei Intel an Greifsensoren arbeitet. Der UMan-Ansatz sei auch philosophisch interessant, weil er Wahrnehmung und Sensorik mit physischer Manipulation kombiniere. (bsc)