Google DeepMind: Wie neue KI-Systeme Robotern das Schnürsenkelbinden ermöglichen

Googe DeepMInd hat zwei neue KI-Systeme herausgebracht, mit denen auch zweiarmigen Robotern komplexe Aufgaben beigebracht werden können.

In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen
Roboter bindet Schnürsenkel

(Bild: Google DeepMind)

Lesezeit: 3 Min.

Googles KI-Schmiede DeepMind hat mit ALOHA Unleashed und DemoStart zwei neue Systeme mit Künstlicher Intelligenz (KI) entwickelt, die Robotern dabei helfen sollen, komplexe Aufgaben zu erlernen, die eine besondere Geschicklichkeit mit zwei Armen erfordern. ALOHA Unleashed versetzt Roboter in die Lage, zweiarmige Manipulationsaufgaben zu erlernen. DemoStart verwendet Simulationen, um die Leistungsfähigkeit einer mehr-fingrigen Roboterhand in der realen Welt zu verbessern.

Manipulationen von Objekten sind den meisten KI-gesteuerten Robotersystemen mit lediglich einem Arm möglich. Google DeepMinds neue KI-Systeme wollen das ändern. ALOHA Unleashed baut auf der ALOHA-2-Plattform auf, die aus einem Open-Source-Robotiksystem mit zwei Armen und mehr-fingrigen Händen besteht, die sich geschickter bewegen können sollen, als die vieler anderer Systeme. Die Arme und Hände steuert ein Operator an und erstellt so Trainingsdaten. Mit ihnen können dem Roboter neue Aufgaben beigebracht werden. Der Vorteil dieser Methode: Sie benötigt weniger Demonstrationen, um komplexe Aufgaben zu erlernen.

Die Forscher von Google DeepMind steuerten das Robotersystem so, dass die beiden Arme die Schnürsenkel eines Schuhs banden und ein T-Shirt auf einen Kleiderbügel hängten. Dazu wendeten die Wissenschaftler eine Diffusionsmethode an. Aktionen des Roboters können damit aus zufälligem Rauschen vorhergesagt werden. Dadurch kann der Roboter so aus den Daten lernen, dass er die gleichen Aufgaben dann selbstständig erledigt.

Überall dort, wo die Aufgabenstellung noch komplexer wird, etwa bei der Objektmanipulation mit mehr-fingrigen Roboterhänden, kommt DemoStart ins Spiel. Dabei handelt es sich im Wesentlichen um eine Simulation, die mit Algorithmen des verstärkenden Lernens (Reinforcement Learning) arbeitet. Zunächst werden einfache Zustände für das Lernen herangezogen, mit der Zeit immer schwierigere Zustände. Das geschieht so lange, bis der Roboter eine Aufgabe bestmöglich durchführt. Dabei soll das System etwa 100-mal weniger simulierte Demonstrationen benötigen, als dies beim Lernen anhand von realen Beispielen der Fall ist.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

In der Simulation mit DemoStart erreichte der Roboter eine Erfolgsquote von mehr als 98 Prozent bei verschiedenen Aufgaben, wie etwa die Ausrichtung von farbigen Würfeln, das Anziehen von Schraubenmuttern und das Aufräumen von Werkzeugen. Das so trainierte Robotersystem erzielte in der realen Welt bei der Ausrichtung der Würfel eine Erfolgsquote von 97 Prozent, beim Einsetzen von Steckern in eine Steckdose eine Erfolgsquote von 64 Prozent. Bei letzterem, so Google DeepMind, sei eine deutlich höhere Fingerkoordination und Präzision nötig. Daher falle die Erfolgsquote niedriger aus.

Die Forscher von DeepMind sehen die Kombination aus dem Generieren von Trainingsdaten mit wenigen Demonstrationen mit ALOHA Unleashed und dem verstärkenden Lernen mit DemoStart als eine Möglichkeit an, die Kluft zwischen Simulation und Realität effektiv zu überbrücken. Dies erleichtere es, Simulationsdaten auf einen physischen Roboter zu übertragen sowie die Kosten und den nötigen Zeitaufwand zu reduzieren.

(olb)