Roboter lernen unbekannte Gegenstände funktional zu greifen

Um unbekannte Objekte funktional greifen zu können, müssen Roboter erst lernen, sie so zu manipulieren, dass das möglich wird.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen

(Bild: sdecoret/Shutterstock.com)

Lesezeit: 3 Min.

Wissenschaftler der Forschungsgruppe Autonome Intelligente Systeme (AIS) der Universität Bonn haben ein Modell entwickelt, wie Roboter ihnen unbekannte Objekte wie ein Mensch am besten greifen können. Das Modell basiert auf Verfahren des Deep Reinforcement Learning.

Menschen greifen Objekte häufig intuitiv so, dass sie nicht herunterfallen oder einfach genutzt werden können, um damit verschiedene Aufgaben zu erfüllen. Für Roboter ist das eine schwierige Angelegenheit, sie müssen das richtige Greifen erst lernen, insbesondere, wenn sie einen Gegenstand nicht kennen und zum ersten Mal in die Hand nehmen wollen.

Das Forschungsteam der Universität Bonn hat sich diesem Problem in der Studie "Deep Reinforcement Learning of Dexterous Pre-grasp Manipulation for Human-like Functional Categorical Grasping" angenommen, die als Preprint auf Arxiv veröffentlicht ist. Darin beschreiben sie einen auf Deep Reinforcement Learning basierenden Ansatz, mit dem ein Modell darauf trainiert werden kann, einen Roboterarm so anzusteuern, dass er Objekte funktional greifen kann.

"Ein Objekt wird funktional gegriffen, wenn es benutzt werden kann, zum Beispiel mit einem Zeigefinger am Drehzahlregler einer Bohrmaschine", erklärt Dmytro Pavlichenko, einer der beteiligten Forscher an der Studie. Ein solches spezifisches Greifen sei nicht immer beim ersten Mal erreichbar, sodass das Objekt möglicherweise gedreht oder anderweitig manipuliert werden muss.

Die Forscher trainierten das KI-Modell mittels Deep Reinforcement Learning so, dass Objekte vor dem Greifen durch den Roboter manipuliert werden, um sie letztendlich auf effektive Weise halten zu können. Das Modell arbeitet mit einer Mehrkomponenten-Belohnungsfunktion. Diese schafft den nötigen Anreiz dafür, ein Objekt durch Finger-Objekt-Interaktion "näher an das vorgegebene Ziel des funktionalen Greifens zu bringen". In der GPU-basierten Simulation Isaac Gym werden die Bemühungen sofort umgesetzt, sodass das System schneller lernen kann.

In der gleichen Simulationsumgebung überprüften die Wissenschaftler das Ergebnis des Erlernten. Die simulierten Roboter konnten deutlich geformte Objekte in ihren Händen bewegen und dabei herausfinden, wie sie sie am besten manipulieren können. Das funktioniert, obwohl dem System kein Mensch gezeigt hat, wie das erfolgen muss.

Der von den Forschern genutzte Lernansatz könne auf verschiedene Roboterarme und -hände übertragen und angewendet werden. Sie könnten dann mit zahlreichen Objekten unterschiedlicher Form umgehen.

Die Wissenschaftler wollen nun das Modell auf physische Roboter übertragen. Ihr Ziel: Die Leistungsfähigkeit soll dann ähnlich hoch ausfallen wie in der Simulation. Die Herausforderung bestehe dabei darin, die Lücke zwischen Simulation und Realität zu schließen. Dazu könne ein zusätzlicher Lernschritt vonnöten sein, denken die Forscher.

(olb)