Lerngruppe für Roboter

Roboter lernen, bestimmte Aufgaben zu lösen, und speichern ihre Erfahrungen dann in der Cloud. Andere Maschinen profitieren von diesen Erfahrungen.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 5 Min.
Von
  • Amanda Schaffer
  • Will Knight

Die Virtuosität, mit der Industrieroboter ganze Autochassis durch die Gegend wirbeln, um blitzschnell Schweißpunkte zu setzen, täuscht. Werkstücke und Werkzeuge sind millimetergenau platziert, und jede Bewegung des Roboters ist fest programmiert.

Ganz anders sieht es im täglichen Leben aus: Viele der Arbeiten, die Menschen gern von Robotern ausführen ließen – etwa in Lagerhäusern Pakete zu packen oder bettlägerigen Patienten zu helfen –, lassen sich noch nicht realisieren. Noch immer tun sich Roboter schwer damit, alltägliche Gegenstände zu erkennen und zu handhaben.

Dass sie im Vergleich zu Menschen so schlecht abschneiden, sei kein Wunder, sagt Stefanie Tellex von der Brown University in Providence (US-Bundesstaat Rhode Island). Menschen könnten problemlos Socken falten oder Wassergläser aufnehmen, weil sie "eine umfangreiche Phase der Datenakquisition namens Kindheit" hinter sich hätten. Sollen Roboter die gleichen Routineaufgaben beherrschen, benötigen sie eine Unmenge Daten über das Greifen und Manipulieren unterschiedlichster Objekte. Typischerweise sind diese Daten Ergebnis mühsamer Programmierung. Im Idealfall aber könnten Roboter solche Informationen untereinander austauschen.

Genau das ist die Idee hinter Tellex' "Million Object Challenge". Roboter auf der ganzen Welt sollen lernen, einfache Gegenstände zu handhaben, ihre Daten dann in die Cloud hochladen und es anderen Robotern so ermöglichen, diese Informationen zu nutzen.

Tellex' Labor in Providence hat die spielerische Anmutung eines Kindergartens. Ein Baxter-Industrieroboter steht zwischen übergroßen Quadern und betrachtet eine kleine Haarbürste. Er bewegt seinen rechten Arm geräuschvoll über dem Objekt hin und her, nimmt mit seiner Kamera mehrere Bilder auf und stellt per Infrarotsensor Tiefenmessungen an. Mit seinem Zwei-Finger-Greifer erprobt er verschiedene Griffe, um die Bürste anzuheben. Ist das Objekt in der Luft, schüttelt er es, um sicherzustellen, dass er es fest im Griff hat. Ist dies der Fall, hat Baxter gelernt, einen Gegenstand aufzunehmen.

Der Roboter arbeitet rund um die Uhr, häufig mit unterschiedlichen Objekten in jedem seiner Greifer. Tellex und ihr Doktorand John Oberlin haben so Daten zu rund 200 Objekten gesammelt und geben diese nun weiter – darunter Kinderschuhe, ein Plastikboot, eine Gummiente, eine Knoblauchpresse und andere Küchenutensilien sowie eine Schnabeltasse, die ursprünglich ihrem dreijährigen Sohn gehörte. Andere Wissenschaftler tragen Daten ihrer eigenen Roboter bei. Tellex hofft, auf diese Art eine Bibliothek zur Handhabung von einer Million verschiedener Gegenstände aufzubauen. Am Ende sollen Roboter einen Gegenstand in einem vollgestopften Regal erkennen und aufnehmen können.

Projekte wie dieses sind möglich, weil viele Forschungsroboter mittels eines Software-Frameworks namens ROS (Robot Operating System) programmiert werden. Es ist modular aufgebaut – der eigentliche Kern kann sehr leicht mit Zusatzpaketen erweitert werden, die dem Roboter dann neue Fähigkeiten verleihen. Hat eine von Tellex' Maschinen eine bestimmte Aufgabe gelernt, kann sie die Daten so an andere Roboter weitergeben. Diese laden wiederum Feedback hoch, was die Programmierung nachfolgender Maschinen verfeinert. Das Datenvolumen für ein beliebiges Objekt lasse sich auf fünf bis zehn Megabytes komprimieren, so Tellex – etwa die Größe eines MP3-Songs.

Die Idee ist nicht ganz neu: Tellex war Mitgründerin des Projekts "RoboBrain". Es demonstrierte 2014 Möglichkeiten zum Erfahrungsaustausch unter Robotern. Ihr Forschungspartner Ashutosh Saxena, damals an der Cornell-Universität, lehrte seinen PR2-Roboter, kleine Tassen aufzunehmen und damit einen Tisch zu decken. An der Brown-Universität lud Tellex die Daten herunter und trainierte damit ihren Baxter – der anders aufgebaut ist und in einer anderen Umgebung arbeitet.

Derartige Bemühungen laufen auch in Europa. Im Rahmen des Projekts "RoboEarth" hatten Forscher die Grundlagen für den einfachen Erfahrungsaustausch zwischen Robotern gelegt. Im Nachfolgeprojekt "RoboHow" wollen sie den Maschinen nun beibringen, mithilfe gemeinsamer Erfahrungen abstrakte Instruktionen in konkrete Steuerbefehle umzusetzen. Die Forscher bringen ihnen etwa bei, was es heißt, einen Pfannkuchen zu backen oder Teile zu montieren.

"Wenn Sie einen Roboter in einer Fabrik einsetzen, wollen Sie ihm zum Beispiel sagen: Drehe eine Mutter auf diese Schraube und ziehe sie an", sagt Koordinator Michael Beetz von der Universität Bremen. "Sie wollen, dass der Roboter alle relevanten Parameter automatisch aus der semantischen Beschreibung der Objekte bekommt." Sobald ein Roboter gelernt hat, eine Anweisung in die zugehörigen Aktionen umzusetzen, werden diese Aktionen in eine maschinenlesbare Sprache übersetzt und in einer Datenbank namens "openEase" gespeichert.

Noch sind die Lernerfolge klein. Doch in fünf bis zehn Jahren, glaubt Roboterforscher Saxena, stehe eine Explosion der Fähigkeiten bevor. Wenn immer mehr Forscher dazu beitragen, hätten Roboter bald alle benötigten Informationen jederzeit zur Hand. Gut denkbar, dass die Technologie schnell Fahrt aufnimmt. Denn die Idee wird mittlerweile nicht mehr nur von Akademikern verfolgt. Saxena beispielsweise hat inzwischen ein eigenes Start-up namens "Brain of Things" gegründet. Und dem ehemaligen RoboEarth-Leiter René van de Molengraft ist aufgefallen, dass ein Google-Patent "auf die meisten Resultate des RoboEarth-Projekts Bezug nimmt". (bsc)