Das Kind im Roboter

Roboter lernen zu sehen, zu greifen und ihre Umwelt zu entdecken. Eine neue Generation von Maschinen entwickelt sich wie Kinder – und verrät dem Menschen einiges über sich selbst.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 20 Min.
Inhaltsverzeichnis

Roboter lernen zu sehen, zu greifen und ihre Umwelt zu entdecken. Eine neue Generation von Maschinen entwickelt sich wie Kinder – und verrät dem Menschen einiges über sich selbst.

Neill Blomkamp versteht sein Handwerk. Es gibt Szenen in dem neuen Film des südafrikanischen Regisseurs, da muss dem Betrachter einfach warm ums Herz werden: Denn "Chappie" ist zwar vordergründig die Geschichte eines Roboters, der lernt, die Welt der Menschen zu begreifen. Aber wenn der junge Robotikforscher Deon Wilson seiner Schöpfung eine Uhr vor das Gesicht hält, ihm sagt, "das ist eine Uhr" – und der Roboter spricht ihm nach "eine Uhr".

Dann geht ein glückliches, extrabreites Grinsen über Wilsons Gesicht, das jeder nachfühlen kann, der die ersten Worte seines Kindes gehört hat. Das ist gute Science-Fiction. Und doch wieder nicht, weil es gar keine Science-Fiction mehr ist. Denn es gibt Wissenschaftler, die genau daran arbeiten: Roboter lernen zu lassen wie kleine Babys.

Nicht nur, um eines Tages vielleicht wirklich intelligente Maschinen bauen zu können, sondern auch, um einige der größten Rätsel überhaupt zu lösen: Wie wird aus einem hilflosen Säugling ein laufendes, sprechendes Wesen? Wie entstehen Intelligenz, Wille – und am Ende Bewusstsein? Und was unterscheidet den Menschen dann noch von der Maschine? Roboter eignen sich zunehmend besser dafür, diesen Fragen auf den Grund zu gehen. Sie lassen sich nach den Theorien der Forscher bauen, um zu testen, wie Lernen funktioniert – und wohin es führt, wenn künstliche Wesen ihre Umwelt erforschen.

Manfred Hild, Professor für "Digitale Systeme" an der Beuth Hochschule für Technik in Berlin, hat dazu seit 2013 ein einzigartiges Roboter-Experiment laufen. Man könnte sagen, er baut nicht nur einen Roboter, er erzieht eigentlich ein Kind. Der an seinem Institut entwickelte humanoide Roboter Myon fährt regelmäßig an die Komische Oper Berlin, um dort zu lernen: Was Musik ist beispielsweise, oder was Klänge mit Bewegungen zu tun haben. Was genau der Roboter dort lernt, kann auch Hild nicht sagen. Denn die Maschine wählt selbst aus, was sie interessant findet.

Im Herbst 2015 soll Myon sogar in einem Stück namens "My Square Lady" auftreten. Ob Myon singen wird? "Keine Ahnung", sagt Hild. Die Maschine hat im wahrsten Sinne des Wortes ihren eigenen Kopf.

Wie weit diese Analogie geht, zeigt Myons Innenleben: Seine Körperteile arbeiten ohne zentrale Steuerung zusammen – ähnlich wie unsere Reflexe. In jedem Bein, in den Armen, im Rumpf, im Kopf stecken kleine Computerplatinen, die autonom arbeiten. Das Zusammenspiel dieses dezentralen Netzwerks ergibt, was Hild "interessantes Verhalten" nennt.

Der Forscher erklärt das Prinzip an einem Roboterbein, das sich selbstständig aufrichten kann. In allen Gelenken ist eine simple Steuerung eingebaut, die den Motor stets gegen die Schwerkraft arbeiten lässt. Berühren Verse und Hüfte den Boden, zieht die Schwerkraft das Knie nach unten. Die sensomotorische Steuerung bewegt daher Ober- und Unterschenkel aufeinander zu und hebt so das Knie. Ähnlich arbeitet der Motor im Fußgelenk. Sobald einmal der ganze Fuß auf dem Boden steht, hängt der Oberschenkel in der Luft und die Kräfte haben ihre Richtung geändert – das Bein richtet sich auf.

"Regelmäßig habe ich Leute, die sagen, sie verstehen nicht, wie das geht", sagt Hild. "Dahinter steckt nicht nur Technik, sondern ein philosophisches Prinzip. Man muss dem System die Freiheit lassen, sich selbst eine Lösung zu suchen." Selbst nach über zehn Jahren, gesteht Hild, würde auch er sich "immer mal wieder dabei ertappen, eine vorgegebene Lösung zu implementieren", statt "Möglichkeiten zu schaffen".

Diese Erfahrung dürften viele Eltern kennen – und ebenso wie Hild wissen, dass dieser Weg nicht zum Ziel führt. Die Welt besteht schlicht aus zu vielen Möglichkeiten, als dass sie alle programmierbar wären. "Wir haben an die 200 Sensoren im Roboter: Kraft, Bewegung, Geschwindigkeit, Spannungen, Ströme, Klänge – und natürlich liefert auch die Kamera jede Menge Informationen", erklärt Hild. "Gespeichert wird aber nur das, worauf der Roboter seine Aufmerksamkeit gelenkt hat." Das sind vor allem neue Sinneseindrücke – Dinge und Personen, die Myon bisher noch nicht gesehen hat.

"Dreamline" nennen die Forscher diese Datei – Ströme, Spannungen, Gelenkwinkel, Audio-Schnipsel und eine Mischung aus Überblicks- und Detailaufnahmen der Kamera. Mithilfe einer speziellen Software können sie daraus die Szene rekonstruieren, die der Roboter erlebt hat. "Wir lassen das seit Jahren mitlaufen", sagt Hild. "Einmal zum Beispiel hat der Dirigent den Roboter am Arm genommen und ihm das Dirigieren gezeigt – so richtig körperlich. Das haben wir in Form von sensorischen Informationen auf der Karte."

Wie aber entsteht daraus nun Wissen? Genau daran arbeiten Hild und seine Mitarbeiter zurzeit. Wenn Myon nichts für ihn Spannendes erlebt, wenn also keine externen Eindrücke die Aufmerksamkeit binden, durchstöbern Algorithmen die Gedächtnisspur. Sie suchen nach besonders häufig auftretenden Mustern: Sitzen und Stehen zum Beispiel. Alle derartigen Sensordaten werden in einem Symbol "gekapselt" und in einem zweiten Speicherbereich – dem "Weltwissensgedächtnis" – abgelegt. Im episodischen Gedächtnis hinterlegt der Roboter nur noch einen Link auf das entsprechende Symbol im Weltwissen.

"Wir strukturieren das Gedächtnis", erklärt Hild. "Auch wenn der Roboter gar nicht weiß, was Sitzen und was Stehen ist, registriert er doch, dass nach Sitzen häufig Stehen kommt." Als Nächstes wollen die Wissenschaftler diese Erkennung in Echtzeit schaffen. Myon soll sie nicht erst nutzen können, lange nachdem er eine bestimmte Situation erlebt hat – sondern sofort. Wenn das glückt, "können wir anfangen, diese Muster zu benennen", sagt Hild. Die Forscher würden ihn dann beispielsweise mündlich zum "Stehen" auffordern oder ihm eine Strichcodekarte zeigen. "Der Roboter lernt im Lauf der Zeit, das Wort oder den Strichcode mit einer Aktivität oder mit einem Objekt zu verbinden."