Roboter II:Die Strategie des Greifens
Eine neue Software ermöglicht es Robotern, Gegenstände aufzuheben, die sie noch nie zuvor gesehen haben – ein wichtiger Schritt in der Entwicklung zum elektronischen Haushaltshelfer.
- Kate Greene
Mit Ausnahme des Staubsaugerautomaten Roomba haben Haushaltsroboter die Heime der Amerikaner bislang nur schleppend besiedelt. Forscher an der Stanford University haben nun eine Software entwickelt, die eine der größten Herausforderungen der Technik löst: Sie brachten einem Roboter bei, Objekte aufzuheben, denen er nie zuvor begegnet war. Die Technologie ermittelt, welcher Teil eines neuen Gegenstandes am besten umfasst werden sollte – der Stiel eines Weinglases, der Griff einer Tasse oder die Ecke eines Buches, beispielsweise.
Ingenieure wie Science Fiction-Fans träumten schon lange davon, Roboter in die Heime der Menschen zu holen, sagt Andrew Ng, Professor für Informatik in Stanford. Tatsächlich sei die Hardware inzwischen bereit, komplexe Aufgaben wie das Aufheben von Gegenständen und das Sauberhalten eines Haushaltes zu erledigen. Das fehlende Puzzlestück ist aber eine Software, die es Robotern erlaubt, dies tatsächlich von sich aus zu tun. Ein geschickter Automat, der ohne Umprogrammierung neue Objekte umfassen könnte, ließe sich für komplexere Aufgaben nutzen – etwa für das Füttern von Haustieren oder das Beladen der Spülmaschine.
Obwohl Roboter bereits ausgewählte Objekte beispielsweise von einem unaufgeräumten Tisch aufheben können, benötigen sie dazu doch konkrete dreidimensionale Modelle, die zuvor einprogrammiert werden müssten, erläutert Aaron Edsinger, Gründer des Start-ups Meka Robotics aus San Francisco: "Das setzt voraus, dass wir vorher wissen, welche Objekte ihm begegnen werden." Das funktioniere zwar beispielsweise in einem genauestens geplanten Altenheim, doch nicht im Haus oder Apartment einer viel beschäftigten Familie.
Statt vorherbestimmte Modelle von Objekten zu verwenden, setzen Wissenschaftler wie Ng und Edsinger auf Wahrnehmungssysteme für Roboter, die nach bestimmten Bereichen eines Objektes suchen, die sich für das Greifen eignen. Das Stanford-Team geht das Problem mit der Nutzung zuvor nur einzeln verwendeter Technologien an – Bilderkennung, maschinelles Lernen, Spracherkennung und Greif-Hardware. Heraus kam ein Roboter namens "STAIR", was für "Stanford Artificial Intelligence Robot" steht.
Dessen Hardware basiert auf einem mobilen Roboterarm mit Mikrofon, Lautsprecher, Sensoren und Kameras, die zum Auffinden von Objekten verwendet werden. Die Grundlagen der Software liegen in Algorithmen aus dem maschinellen Lernen, die zur Ausführung bestimmter Funktionen trainiert werden können. Dies geschah mit Hilfe von 2500 Bildern von Gegenständen, bei denen die fassbaren Bereiche markiert waren.
Doch der Wechsel von zweidimensionalen Bildern hin in eine dreidimensionale Welt blieb nicht einfach, erklärt Ng. Ein Roboter kann zwar mit dem Signal zweier Kameras eine 3D-Ansicht seiner Umwelt erstellen, damit er weiß, wie weit beispielsweise eine Kaffeekanne von seinem Greifer entfernt ist. Doch dieser Prozess, bei dem die Distanz normalerweise durch die Sammlung zahlreicher Punkte von linker und rechter Kamera und einer anschließenden Überführung in ein 3D-Modell berechnet wird, benötigt viel Rechenleistung und Zeit.
Ng und sein Team entwickelten deshalb eine Alternative, die diesen Prozess vereinfacht. Statt Daten über viele Punkte eines Objektes zu sammeln, wird nur der Mittelpunkt des greifbaren Teils eines Objektes identifiziert – etwa der Griff. Dies geschieht durch die Berechnung der Ecken eines Objektes und den Vergleich mit den Ecken von statistisch ähnlichen Gegenständen in der Datenbank. Die Software gleicht diesen Punkt dann mit beiden Kameras ab und ermittelt so den Abstand: "Das war die zentrale Idee, mit der all unser Greifen funktionierte", sagt Ng. Nun arbeite man am Beladen einer Spülmaschine und anderen komplizierten Vorgängen.
Roboter müssen allerdings noch genauer lernen, mit Gegenständen automatisch umzugehen. STAIR wurde dafür entwickelt, Objekte zu greifen, nicht aber dafür, dieses Greifen je nach Situation anzupassen. Somit kann der Roboter beispielsweise keinen Kaffee aus einer Kanne auffüllen, weil dies eine andere Griffposition voraussetzen würde und einen anderen Druckpunkt – das ist etwas anderes, als die Kanne nur zu nehmen und sie in einem Regal abzustellen. Außerdem erkennt die Software die Konsistenz von Objekten noch nicht – ob sie weich oder hart sind. Doch die Forscher arbeiten bereits an diesen Problemen. Eines Tages werde es persönliche Roboter geben, die mit einer Kombination aus Sensoren-Technologie und verbesserter Software Gegenstände aufheben und manipulieren könnten, meint Ng.
Doch ein gut funktionierender Haushaltsroboter liegt noch Jahre in der Zukunft. Dennoch bringt das Stanford-Team diesen Traum voran. "Wenn ich ein Problem auswählen müsste, die die Vision eines persönlichen Roboters aktuell zurückhält, wäre es die Fähigkeit, Dinge aufzuheben und zu manipulieren", meint Josh Smith, ein leitender Forscher bei Intel Research in Seattle. Es brauche Greifstrategien, die wie die der Stanford-Forscher kein explizites 3D-Modell eines Objektes benötigten. Neben der Bilderkennung muss aber auch die Hand eine Anzahl von Sensoren besitzen, um zu erspüren, ob sich das Objekt bewegt oder der Griff nicht fest genug ist. "Wesentlich genauere Sensoren in der Hand werden ein wichtiger Teil der Problemlösung sein", sagt Smith. (bsc)