Smart, aber nicht smart genug

Roboter unter Druck: Ihre Arbeitgeber verlangen immer höhere, immer komplexere Leistungen. Vor allem sollen sie eines können: mitdenken.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 15 Min.
Inhaltsverzeichnis

Roboter unter Druck: Ihre Arbeitgeber verlangen immer höhere, immer komplexere Leistungen. Vor allem sollen sie eines können: mitdenken.

Die Maschine nähert sich leise surrend. Höflich wie ein gut geschulter Butler fragt sie nach Getränkewünschen und präsentiert dem Besucher einen Tablet PC, um seine Wahl zu notieren. "Sie wünschen kalten grünen Tee", bestätigt der Roboter die Auswahl, fährt an den Kühlschrank, öffnet die Tür, nimmt eine Flasche heraus und serviert sie mit unterkühlter Grandezza.

So vielseitig wie "Care-O-bot", eine Entwicklung des Fraunhofer-Instituts für Produktionstechnik und Automatisierung (Ipa) in Stuttgart, sind die meisten Roboter zwar noch nicht. Aber die dienstbaren Maschinen erfreuen sich im Haushalt einer wachsenden Beliebtheit: 4,7 Millionen Serviceroboter soll es mittlerweile weltweit nach einer Untersuchung der UN-Wirtschaftskommission und der International Federation of Robotics (IFR) geben. Sie saugen Teppichböden, mähen den Rasen, melken Kühe, ziehen Zäune – oder machen ihren Besitzern einfach Spaß. Auch in der industriellen Produktion sind die helfenden Automaten inzwischen unverzichtbar geworden. Zwischen 1 und 1,3 Millionen Industrieroboter sind nach Schätzungen der IFR weltweit in der Produktion im Einsatz. Um den Grad der Automatisierung verschiedener Volkswirtschaften miteinander zu vergleichen, ermittelt der Verband die "Roboter-Dichte" – die Anzahl von Industrierobotern pro 10000 Mitarbeiter.

Weltweit, gemittelt über alle Branchen und Länder, gab es demnach 2008 etwa 75 Roboter auf 10000 Beschäftigte. In Deutschland liegt dieser Wert bei 236 – ein Wert, der nur noch von Japan mit 361 übertroffen wird. Doch der scheinbar unaufhaltsame Siegeszug der Arbeitsmaschinen ist in den vergangenen Jahren ins Stocken geraten. Denn trotz erheblicher technischer Fortschritte sind die meisten dieser Systeme noch immer vergleichsweise dumm: Care-O-bot beispielsweise kann zwar ohne Weiteres eine Zimmertür öffnen, aber wenn die Tür klemmt, weil der Rahmen sich verzogen hat, ist die Maschine hilflos. Das Gleiche passiert einem Schweißroboter, wenn das Band plötzlich stillsteht.

"Vor dreißig Jahren war die Industrie in erster Linie an einer hohen Taktrate interessiert", erklärt Professor Frank Kirchner, Leiter des Robotik-Labors Bremen des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI). 50 Prozent aller Industrieroboter werden noch immer in der Automobilindustrie eingesetzt. Andere Branchen, kleine Handwerksbetriebe oder Dienstleister ziehen nur langsam nach. Viel zu lange, so Kirchner, habe sich die Robotik fast ausschließlich an den Erfordernissen weniger Branchen orientiert. "Da wurde nicht in die Intelligenz der Roboter investiert, sondern in die Optimierung der Umgebung", erklärt Kirchner. "Bei der Ausdauer eines modernen Schweißroboters", so erklärt er, "kommt kein Arbeiter mehr mit." Aber für den Prozess müsse die Karosserie unglaublich präzise genau da positioniert werden, wo der Roboter sie erwartet.

Die Roboter von heute sind in der Regel blind und taub. Der Programmierer gibt der Maschine lediglich die Koordinaten vor, die der Arm mit seinem Werkzeug anzufahren hat. Die Steuerung der Maschine berechnet daraus die optimale Positionierung der einzelnen Teilglieder des Roboterarms, damit der das Werkzeug mit möglichst wenigen Bewegungen einsetzt. Will man den Arbeitsablauf auch nur in einer Kleinigkeit verändern, muss man das Roboterprogramm insgesamt stoppen. Eingaben durch Sprache, Zeigen oder Vormachen durch einen Werksmitarbeiter vor Ort sind in der Regel nicht vorgesehen. Damit die teure Maschine möglichst wenig stillsteht, geschieht diese Programmierung häufig fernab des Einsatzortes am Schreibtisch: In der Enwicklungsumgebung – der Software zum Erstellen von Programmen – werden Roboter und Herstellungsprozess am Werkstück simuliert. Da keine dieser Simulationen jedoch wirklich exakt ist, muss das Programm dann im letzten Schritt noch an die konkreten Eigenheiten des Roboters angepasst werden.

Das alles kostet Zeit und Geld: Zwar sind die Kosten für Roboterarme seit 1990 um 60 Prozent gesunken, doch der Preis des Roboters macht als Faustregel nur etwa ein Viertel der Kosten für eine komplette Roboterzelle aus. Der Rest ent- fällt auf Bereitstellung, Positionierung und Abtransport des Materials sowie auf Energieversorgung und nicht zuletzt die Sicherheitsmaßnahmen. Denn wenn einer der bis zu 1500 Kilogramm schweren Arme, die sich mit Geschwindigkeiten von mehreren Metern pro Sekunde bewegen, außer Kontrolle gerät, sollte besser kein Mensch im Weg stehen. "Die Applikationen, die sich relativ leicht automatisieren lassen, sind in der Regel schon automatisiert", fasst Martin Hägele vom Fraunhofer Ipa zusammen. "Bei anderen Anwendungen, zum Beispiel bei schwankendem Durchsatz der zu bearbeitenden Werkstücke, kommen Roboter noch immer an ihre Grenzen – technisch und wirtschaftlich."

Gemeinsam mit seinen Kollegen hat Hägele, der seit über 20 Jahren an Robotern forscht, in den ver-gangenen fünf Jahren intensiv daran gear-beitet, dass sich diese Situation ändert: Im EU-Verbundprojekt SMErobot (Small and Medium Enterprises Robot) haben er und sein Team Roboter speziell für den Einsatz in kleinen und mittleren Produktionsprozessen gebaut. Diese neue Roboter-generation kann zumindest begrenzt direkt mit menschlichen Kollegen zusammenarbeiten.

Doch damit das funktioniert, müssen die Maschinen erst mal ihre Umgebung, zum Beispiel ein Werkstück, wahrnehmen können. 2006 waren laut IFR gera-de einmal zehn Prozent aller Industrieroboter mit Sensoren ausgestattet. Das Ausmessen von Konturen, das Erkennen von Objekten, die Führung von Greifern oder Werkzeugen anhand von Objektmerkmalen – und nicht zuletzt die präzise Dosierung von Kräften gehören bei Weitem noch nicht zu den Standardfähigkeiten. Was indes möglich ist, lässt sich beispielsweise in einer der Experimentierhallen des Fraunhofer Ipa begutachten: Auf einem Experimentierfeld steht eine hohe schwarze Metallkiste, in der kreuz und quer kiloschwere gusseiserne Wellen liegen. "So durcheinander abgelegt, wie sie aus der Schmiede kommen", sagt Hägele, stemmt eine Welle wie eine Hantel und lässt sie wieder in die Kiste hineinfallen.

Ein handelsüblicher Industrie-Laserscanner tastet die Kiste ab. Anschließend gleicht ein angeschlossener Computer die geometrischen Formen, die er aus den CAD-Daten der Wellen extrahiert hat, mit der Punktwolke des Scanners ab. Die Software auf dem Laptop steuert den ebenfalls handelsüblichen Roboterarm. Der fährt runter an die Kiste, zögert ganz kurz, wie um zu überlegen, fischt dann das massive Eisenstück leichthändig aus dem Behälter und legt es beinahe sanft auf einem Gestell ab. "Und das macht er immer wieder, bis die Kiste leer ist", sagt Hägele nicht ohne Stolz.

Auch für die Sicherheit ist gesorgt. Dazu legt die Robotersteuerung, für den Beobachter unsichtbar, eine Schutzzone um den Arm. Dringt ein Mensch oder eine Maschine in diesen Schutzbereich ein, wird der Arm automatisch langsamer, bis der Aktionsbereich wieder frei ist.

So weit, so sicher. Doch um im harten industriellen Einsatz zu bestehen, muss der Greifer hundertprozentig verlässlich arbeiten und wirklich jede einzelne Kiste komplett leeren. Eigentlich sollte das Projekt im Herbst 2009 bereits abgeschlossen sein. Aber noch immer kämpfen die Ipa-Mitarbeiter darum, der Maschine auch die letzten wenigen Aussetzer auszutreiben. Auch der Dialog zwischen Mensch und Maschine bleibt ein mühsames Geschäft. Zwar bieten einzelne Roboterhersteller mittlerweile Software an, mit deren Hilfe man dem Roboter einen bestimmten Bewegungsablauf von Hand vorgibt. Den fährt er dann später automatisch ab. "Noch besser wäre es aber, wenn der Roboter bereits eine Idee hätte, was man mit dem Werkstück machen kann", sagt Hägele. "Er müsste sagen: So ein Teil haben wir neulich schon mal bearbeitet, aber dieses hier ist fünf Zentimeter länger. Soll ich die Bohrung entsprechend weiter außen anbringen?"

Dafür jedoch benötigt der Roboter nicht nur einen Zugriff auf digitale Information von außen – CAD-Daten etwa oder Informationen über den Ablauf der Fertigung –, sondern auch so etwas wie ein strukturiertes Gedächtnis. Selbst aus möglicherweise lückenhaften oder gar inkonsistenten Daten muss der Roboter ein konsistentes und eindeutiges Steuerprogramm ableiten. Ein Ding der Unmöglichkeit? "Nicht, wenn der Roboter aus den Daten starke Hypothesen ableitet", sagt Hägele. Über einen "geführten Dialog" mit dem Werksmitarbeiter soll der Automat dann alle Zweideutigkeiten eliminieren. "Disambiguieren" nennt Hägele das.

Noch weiter geht die Vision im Projekt "Semantisches Produktgedächtnis", kurz SemProM, das 2008 vom Bundesforschungsministerium initiiert wurde. Die Idee: Jedes Produkt speichert ständig Informationen über seine Umgebungsbedingungen und tauscht sich aktiv mit der Umwelt darüber aus. Das Prinzip kann in der Logistik verwendet werden, aber auch in der Produktion: Das Werkstück selbst "treibt die Produktion", teilt also einem Roboter mit, wohin es transportiert werden muss, und der sagt der Produktionsanlage, wie es bearbeitet werden soll. Dieser Ansatz macht ein Gesamtsystem zwar sehr robust und flexibel, weil eine zentrale Steuerung nicht mehr nötig ist, doch die Anforderungen werden noch höher: Der autonome, flexible Roboter für die Werkstatt oder Fabrik von morgen muss über künstliche Intelligenz verfügen.

Die Roboterplattform für dieses Projekt entwickelte das DFKI-Labor Bremen. Der erste Prototyp des SemProM-Roboters, vorgeführt zur Hannover Messe 2008, stand noch fest montiert auf einem Träger. Doch 2010 wollen die Bremer Forscher mit dem ersten mobilen System antreten – im Gewand einer Frau. Der besondere Clou der Roboterdame namens Aila sind die am DFKI eigens entwickelten Leichtbau-Arme: Bei einem Gewicht von rund sechs Kilogramm können sie etwa acht Kilo Gewicht heben; verglichen mit anderen Systemen ist das ein echtes Rekordverhältnis. Noch sind die Arme mit ihren sieben Freiheitsgraden an einen quasi starren Rücken montiert. Doch im nächsten Schritt wollen die DFKI-Forscher die Anbindung über eine Art flexibler Schulterblätter realisieren. Damit wäre die Maschine in der Lage, eine "beidarmige Manipulation von nicht statischen Objekten" zu meistern – zum Beispiel beim Heben von Kaffeesäcken, in denen die Kaffeebohnen verrutschen und sich dadurch der Schwerpunkt verlagert.

Das Ziel ist klar: Wenn das Objekt zu schwer ist oder in sich flexibel, soll die Maschine dieses Problem erkennen und das Objekt mit der zweiten Hand unterstützen. Doch das ist einfacher gesagt als getan: Seit gut fünfzig Jahren arbeitet die KI-Forschung mittlerweile an dieser und ähnlichen Fragen, die sich für die Robotik als harte Nuss erwiesen haben. Denn das Basisrezept der künstlichen Intelligenz zeigt bei solchen alltäglichen Problemen seine Grenzen: Normalerweise behan-delt eine "intelligente" Maschine Objekte, mit denen sie um- gehen soll, als abstrakte Symbole mit zugeordneten Eigen- schaften: Ein Sack etwa hat ein bestimmtes Gewicht und eine bestimmte Farbe.

Jede Manipulation von Objekten läuft nach logischen Regeln ab und wird von der Maschine zunächst theoretisch durchgespielt: Will die Maschine beispielsweise den Sack greifen und hochheben, folgert die Software daraus, dass die Koordinaten des Sacks sich nach dem Hochheben verändert haben müssen. Doch was in sterilen, sauber definierten Laborumgebungen funktioniert, klappt draußen noch lange nicht. Die Maschine muss mit schwankenden Lichtverhältnissen zurechtkommen, mit Menschen, die ihr in die Bahn laufen, mit Temperaturunterschieden oder störenden elektromagnetischen Feldern. Und es gibt keine Möglichkeit, ihr vorab zu vermitteln, welche dieser Daten wichtig sind und welche weniger, denn das kann sich während der Aufgabe ändern. Je komplexer aber das Modell der Umgebung ist, das der Roboter berücksichtigen soll, desto mehr Objekte und ihre Eigenschaften muss die Maschine mit einbeziehen. Immer mehr Fakten also, die über logische Regeln miteinander verknüpft sind. Der Programmieraufwand steigt dabei exponentiell.

Paradoxerweise ist eine mögliche Lösung dieses Problems die bewusste Einbeziehung eigentlich redundanter Informationen, etwa die gleichzeitige Auswertung von Bildern und Tastinformationen. "Multimodal" nennen das die KI-Forscher. Der scheinbare Informationsüberschuss soll dem Verständnis der Maschine auf die Sprünge helfen: Die Pixel-Information der Kamera wird mit den Daten der Tastsensoren gemischt – so könnte der Roboter beispielsweise lernen, dass Punkte, die aus einer bestimmten Kameraperspektive nicht sichtbar sind, ebenfalls zu einem Objekt gehören. Das zweidimensionale Pixelbild soll so "einen semantischen Sinn" bekommen; Hand und Auge würden zur "taktilen Kamera".

Noch stecke diese Integration in den Kinderschuhen, klagt DFKI-Forscher Kirchner. Viel zu lange habe man sich in der Robotik auf die maschinelle Bildverarbeitung konzentriert, nun fehle es an bezahlbaren taktilen Sensoren. Die dreifingrige Hand des Unternehmens Schunk Robotics etwa, die derzeit zum Besten zählt, was für Geld zu kaufen ist, verfügt über insgesamt 480 Messpunkte. Ein gewaltiger Fortschritt, doch ein einzelnes Exemplar dieser Hand kostet gut 40000 Euro. "Und ich habe allein in meiner Fingerkuppe mehr Sensoren als die komplette Hand", sagt Kirchner. Doch in spätestens fünf Jahren wollen Kirchner und sein Team das Problem gelöst haben: "Das haben wir ganz fest auf der Agenda."

Seinen Optimismus bezieht Kirchner jedoch nicht allein aus dem technischen Fortschritt bei der Hardware. Viel Hoffnung setzen er und eine wachsende Schar von KI-Experten auch auf die Natur als Vorbild: "Biologische Systeme nutzen jeden schmutzigen Trick, der möglich ist", erklärt Kirchner begeistert. Als Vorbild für Laufroboter, die autonom Mond oder Mars erkunden sollen, haben die Bremer Wissenschaftler zum Beispiel Skorpione gewählt. "Die haben nicht mal ein Gehirn, nur ein paar Zehntausend Neuronen", sagt Kirchner. "Aber damit können die nachts Beute fangen." Wie sie das machen, haben Biologen schon in den 1970er- Jahren erforscht: Die Bewegung der einzelnen Beine etwa wird nicht zentral in allen Einzelheiten gesteuert, sondern an Untersysteme delegiert: Ein zentraler "Mustergenerator" ist grundsätzlich für das Heben und Absetzen der Beine zuständig. Nur noch die konkrete Ausgestaltung der Bewegung – Geschwin- digkeit, Schrittweite und so weiter – wird von der zentralen Steuerung vorgegeben.

Die Adaption dieses Systems an Bewegungen bei Robotern hat Kirchner und seinem Team recht gegeben: Ihr Skorpion ist eine der schnellsten Laufmaschinen der Welt. "Nur ein paar Tausend Zeilen Code, und das Ding läuft stabil", versichert der KI-Experte. "Wenn Sie das mit einer herkömmlichen Steuerung machen, brauchen Sie Millionen von Zeilen, und es funktioniert doch nicht richtig." Aber der Erfolg hat seinen Preis: Schnelligkeit und Stabilität gehen auf Kosten der Präzision – und der Kontrollierbarkeit. "Wenn ich das Ding loslaufen lasse, kommt es zwar über jedes Hindernis, aber ich weiß nicht, in welchem Winkel zur Tür es dann genau stehen wird", räumt Kirchner ein. "Das ist für Ingenieure, die normalerweise immer alles genau kontrollieren wollen, ein echter Kulturbruch." (wst)