Roboter lernen selbstständig das Laufen

Damit Roboter elegant laufen können, ist ein hoher Programmieraufwand notwendig. Zwei Studien zeigen, wie Laufenlernen automatisiert werden kann.

In Pocket speichern vorlesen Druckansicht 7 Kommentare lesen
Roboter lernen selbstständig das Laufen

(Bild: Google AI Blog (Screenshot))

Lesezeit: 2 Min.
Von
  • Hans-Arthur Marsiske

Zwei Studien zeigen, wie das Laufenlernen für vierbeinige Roboter stärker automatisiert werden kann. Darauf weisen die beiden Google-Forscher Xue Bin Peng und Sehoon Ha hin. In einem Blogbeitrag erklären sie die unterschiedlichen Lauflernverfahren.

In der ersten Studie geht es um das Lernen von Gangarten anhand natürlicher Vorbilder. Hierbei werden zunächst die Bewegungsabläufe eines Vierbeiners, etwa eines Hundes, mit Motion Capture Systemen erfasst. Im zweiten Schritt werden sie der Morphologie des simulierten Roboters angepasst. Der optimiert sein Laufverhalten daraufhin in einer physikalischen Simulation, in die per Zufallsgenerator einige Varianzen eingefügt werden, etwa bei der Oberflächenreibung, der Stärke der Motoren oder dem Gewicht des Roboters.

Dieser per Verstärkungslernen erworbene Umgang mit kleinen Abweichungen führe bei der Übertragung auf einen realen Roboter zu robustem Laufen sowie komplexeren Bewegungen wie Drehen im Kreis oder Sprüngen, die denen des biologischen Vorbilds recht ähnlich seien. Nur wenige Minuten aufgezeichneter Bewegungsdaten seien erforderlich, um dieses Ergebnis zu erzielen. Neben natürlichen Bewegungsabläufen könnten auf die gleiche Weise auch künstlich entworfene Bewegungen erlernt werden.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Die zweite Studie beschäftigt sich mit der Automatisierung des Laufenlernens bei einem realen Roboter. Hier sei bislang häufig menschliche Assistenz gefordert, wenn der Roboter den Trainingsbereich zu verlassen droht oder wenn er umkippt, schreiben die Google-Forscher. Um diese manuellen Eingriffe zu minimieren, haben sie ein Multitask-Lernverfahren entwickelt, bei dem der Roboter sich bei seinen Laufübungen stets am Zentrum des Trainingsgeländes orientiert.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Ein weiterer Algorithmus sorgt für die Balance zwischen Sicherheit und Belohnung, sodass Stürze minimiert werden. Das Verfahren sei auf verschiedenen Untergründen erfolgreich getestet worden, so die Forscher. Um die Datengrundlage für lernende Roboter noch mehr zu erweitern, wollen sie zukünftig auch die Möglichkeiten, von Videoaufnahmen zu lernen, verstärkt untersuchen. (olb)