KI 2019: Roboter müssen immer noch viel lernen

In einigen Bereichen haben die Maschinen Menschen schon überholt, aber ganz grundlegende Dinge können sogar Kleinkinder immer noch viel besser.

In Pocket speichern vorlesen Druckansicht 12 Kommentare lesen
KI 2019: Roboter müssen immer noch viel lernen

(Bild: vs148/Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Sich ein Glas Wasser einzuschenken wird für gewöhnlich nicht als intellektuell besonders anspruchsvolle Tätigkeit angesehen. Der Versuch, Roboter mit vergleichbaren Fähigkeiten auszustatten, zeigt jedoch, wie kompliziert der vermeintlich simple Vorgang tatsächlich ist.

Michael Beetz von der Uni Bremen zeigte in seiner Keynote am letzten Tag der Konferenz KI 2019 in Kassel ein Video, in dem ein zweijähriges Kind aus einer Karaffe Wasser in ein Glas füllt. Dabei stützt es die Karaffe auf das Glas, um mehr Stabilität zu haben. "Das ist eine erstaunliche kognitive Fähigkeit", sagte Beetz. "Das Kind kann noch nicht einmal sprechen, ist aber schon in der Lage, so eine komplexe Handlung auszuführen." Die Evolution der Fähigkeit zu zielgerichteter Manipulation sei von vornherein eng mit der Entwicklung von Kognition verbunden gewesen. Damit Roboter ein ähnliches Niveau erreichen können, müssten sie in der Lage sein, über ihre Handlungen nachzudenken.

Beetz will das mit einem hybriden Ansatz erreichen, der Simulationen des Roboters und seiner Umgebung mit symbolisch kodiertem Wissen verknüpft. Die Simulation fungiere dabei als digitaler Zwilling des Roboters, der gefahrlos Bewegungsabläufe ausprobieren und optimieren kann. Für zielgerichtetes Handeln ebenso wie für die Verallgemeinerung von Handlungen ist aber auch Wissen über die dabei verwendeten Objekte erforderlich. Dieses Wissen könne der Roboter durch menschliche Unterstützung, aber auch durch eigenständige Erkundung seiner Umgebung erwerben.

In einem klar strukturierten Supermarkt etwa könne er durch das Scannen der Produkte auf den Regalen eine Wissensbank erstellen, in der festgehalten ist, welches Produkt wo zu finden ist. Ein solches Zusammenspiel von physikalisch basierter Simulation und symbolischem Wissen ermögliche das Lernen durch Imitation, was beim Bremer Forschungszentrum EASE unter anderem anhand von Instruktionsvideos aus dem Internet erprobt werde. Die Übertragbarkeit der erlernten Fähigkeiten auf andere Situationen soll auf diese Weise ebenfalls ermöglicht werden – ähnlich dem Kind, das im Laufe seines Lebens auch den Umgang mit Flüssigkeitsbehältern verfeinern wird, womöglich bis hin zum Barkeeper, der virtuos mit Cocktailshakern jonglieren kann.

Ein Roboter lernt Kochen (5 Bilder)

Szenen aus einem Instruktionsvideo mit klassifizierten Objekten und Bewegungsabstraktionen... (Bild: Michael Beetz)

Das Lernen durch Imitation könnte die Programmierung von Robotern erheblich erleichtern und auch Laien zugänglich machen. Hierfür müssten die Bewegungsabläufe in einzelne Elemente segmentiert werden, um sie auf andere Körperformen übertragen zu können, erläuterte Lisa Gutzeit (Uni Bremen). Sie berichtete von Experimenten, bei denen menschliche Versuchspersonen Holzstäbchen in einen Behälter warfen. Ihre Bewegungen wurden mit einem Motion Capture System aufgezeichnet und dienten als Grundlage, vier verschiedenen Roboterarmen das aus Ostasien stammende Spiel beizubringen. Das Werfen sei dabei gut gelernt worden, so Gutzeit, aber hinsichtlich der Zielsicherheit seien die Roboter hinter den Menschen zurück geblieben. Hier sei einer weitere Verfeinerung des Bewegungsablaufs durch Verstärkungslernen erforderlich, etwa mithilfe der in Bremen entwickelten Software BOLeRo.

Lukas Sauer (Uni Bayreuth) berichtete von einer Studie, die das Programmieren von Bewegungsabläufen ohne visuelles Interface (wie etwa ein Tablet) ermöglichen soll. Der Bediener muss den Roboterarm dafür zunächst von Hand an die gewünschten Positionen schieben, ihm auf diese Weise zeigen, wo Gegenstände gegriffen und wo sie abgelegt werden, und durch Betätigung von Tasten direkt auf dem Arm die Kommandos eingeben, welche Aktion an welcher Stelle ausgeführt werden soll. Das Verfahren nutzt den Ansatz endlicher Automaten (finite state machines) und wurde mit fünf Nutzern getestet, die keine Erfahrung mit Programmierung hatten.

Nach einer fünfminütigen Einweisung sollten sie drei verschiedene Sortieraufgaben programmieren. Zwei Teilnehmer bewältigten alle drei Aufgaben, drei waren lediglich bei zwei Aufgaben erfolgreich. Bei zehn von diesen zwölf korrekt programmierten Bewegungsabläufen gelang die Programmierung in weniger als fünf Minuten. Die Forscher sehen darin eine Bestätigung ihres Ansatzes, den sie zukünftig auch bei komplexeren Aufgaben erproben wollen.

Diese wie auch andere Präsentationen zur Robotik bei der KI 2019 hinterließen den Eindruck, dass die Roboter auf dem Weg in die kleinen Werkstätten, Büros und Privatwohnungen stetig vorankommen – aber noch viel zu lernen haben.

Lesen Sie zur KI 2019 auch bei heise online:

(mho)