Robotik: Selbstlernende Kooperationspartner

Minoru Asada sieht Roboter als eine Spezies zwischen den Menschen und den nicht-menschlichen Primaten. Sie sollen vor allem Kooperationspartner sein. Die Bewertung von Robotern werde stark durch die Kultur geprägt.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Softbank Robotics

(Bild: Softbank Robotics)

Lesezeit: 11 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Am letzten Tag des wissenschaftlichen Workshops Robotics in the 21st Century wurden noch einmal spannende Konzepte für die zukünftige Forschung präsentiert und heise online konnte ein Interview mit RoboCup-Mitgründer Minoru Asada führen.

Tamim Asfour vom Karlsruhe Institute of Technology etwa stellte die Kraft in den Mittelpunkt: Kräfte seien das Schlüsselelement für die Interaktion mit der Umwelt, sagte er. Mithilfe von Sensorimotor Force Fields (SFF) ließen sich Aktionen, Agenten und Objekte repräsentieren. Sein Ziel ist es, die Daten aller anderen Sensoren als Kraft abzubilden und Roboter aufgrund dieser Daten zu steuern – wobei nicht nur physische Kräfte berücksichtigt werden sollen, sondern auch geistige, logische oder theoretische.

Wolfram Burgard (Uni Freiburg) dagegen erwartet, dass Verfahren des Deep Learning die Robotik revolutionieren werden. Fortschritte erwartet er vor allem im Bereich der visuellen Wahrnehmung, arbeitet aber auch daran, den Untergrund, über den ein Roboter fährt, anhand der Geräusche zu klassifizieren. Das erklärte Ziel ist es, Programmieren überflüssig zu machen, indem der Roboter alles selbst lernt. Das Problem bei diesen Lernverfahren, räumte Burgard ein, sei es allerdings, dass sie eine Art Black Box darstellten, deren innere Mechanismen den Forschern verborgen bleiben. „Sie halten uns davon ab, irgend etwas zu verstehen“, sagte er.

Und ums Verstehen geht es letztlich, insbesondere das Verhältnis zwischen Mensch und Roboter und vor allem den Menschen selbst. Das betonte auch Giulio Sandini, Forschungsleiter des Italian Institute of Technology (IIT), in seinem Vortrag. Er behandelte die Frage, was einen humanen (nicht: humanoiden) Roboter ausmache. Dafür sei es nicht unbedingt erforderlich, dass er eine realistische Kopie des Menschen darstelle. Vielmehr sei die Fähigkeit, mit Menschen zu interagieren, entscheidend. Die befinde sich heute noch auf einem sehr primitiven Niveau. Für eine humane Interaktion, die auf gegenseitigem Verständnis beruht, sei ein internes Modell des Interaktionspartners erforderlich. Das aber sei viel schwieriger, als zum Beispiel menschenähnliches Laufen zu programmieren.

Wenn die Tagung ein beherrschendes Thema hatte, dann war es diese Mensch-Roboter-Interaktion. Dazu zählen auch Forschungen, die mithilfe von Roboterexperimenten menschliches Verhalten zu erklären versuchen. So zeigte Yukie Nagai (Osaka University) faszinierende Videos von Experimenten mit 14 Monate alten Kindern, die spontan, ohne Aufforderung oder Belohnung, anderen helfen. Einem Erwachsenen, der beide Hände voll hatte, öffnete das Kind etwa die Schranktür. Andererseits sind Kinder in diesem Alter aber noch nicht in der Lage, sich selbst im Spiegel zu erkennen. Wie ist es dann möglich, dass sie andere Personen erkennen und ihnen sogar zu Hilfe kommen?

Auf der Suche nach einer Erklärung führte Nagai ein Experiment mit Robotern durch, um die These zu testen, inwieweit die kognitive Entwicklung aus dem Bedürfnis erwächst, den Vorhersagefehler bei der Einschätzung der persönlichen Umwelt zu reduzieren. Ihre Schlussfolgerung: Was bei dem Kleinkind wie spontane Hilfsbereitschaft aussieht, dient tatsächlich dem Bedürfnis, den durch die andere Person verursachten Vorhersagefehler zu reduzieren.

Nagai forscht am Emergent Robotics Laboratory, das von Minoru Asada geleitet wird. Trotz des eng getakteten Workshop-Programms ergab sich in einer Kaffeepause die Gelegenheit, Asada ein paar Fragen zu stellen.

heise online: Herr Asada, die öffentliche Aufmerksamkeit für Robotik nimmt seit einiger Zeit deutlich zu. Ist das nur hier in Deutschland so oder nehmen Sie das auch in Japan wahr?

Minoru Asada

(Bild: Hans-Arthur Marsiske)

Asada: Es scheint mir dabei weniger um Roboter, sondern vor allem um künstliche Intelligenz und Deep Learning zu gehen. Smartphones und Anwendungen im Internet haben davon sehr profitiert und das Interesse an diesen Technologien befördert. Roboter dagegen sind noch nicht so weit. Da sind noch mehr Experimente nötig, bis sie von der Gesellschaft akzeptiert werden. Insbesondere brauchen wir Feedback von den Menschen, die zukünftig Roboter nutzen werden, um sie entsprechend ihren Wünschen gestalten zu können. Das ist ein ganz normaler Prozess für industrielle Produkte, aber bei einer so ehrgeizigen Technologie wie der Robotik hängt das endgültige Design noch stärker von den Nutzern ab.

heise online: Eher geisteswissenschaftlich orientierte Personen, die künstliche Intelligenz bisher nicht besonders ernst genommen haben, scheinen jetzt zu erkennen, dass doch mehr dahintersteckt, als sie gedacht haben. Auf der anderen Seite sind Informatiker und Ingenieure mit ethischen Herausforderungen konfrontiert, die sie ebenfalls bislang unterschätzt haben. Teilen Sie diese Einschätzung?

Asada: Ja, damit Roboter von der Gesellschaft akzeptiert werden können, müssen wir uns gemeinsam diesen ethischen Fragen stellen und versuchen, zu einer Lösung zu kommen. Das braucht Zeit.

heise online: Es braucht Zeit und vielleicht auch neue Formen des öffentlichen Diskurses. In Deutschland wird die Debatte insbesondere durch autonome Fahrzeuge befeuert. Erfahrungen mit künstlicher Intelligenz im Internet, etwa in Gestalt personalisierter Werbung, mögen auch eine Rolle spielen. Ist das in Japan ähnlich?

Asada: Beim Umgang mit Robotern gibt es kulturelle Unterschiede. In Japan wird der Roboter eher als Partner oder Familienmitglied wahrgenommen. Das hängt wohl auch mit Comicfiguren wie Astro Boy oder Doraemon zusammen. Doraemon ist ein sehr lustiger Roboter, der sich mit dem Jungen, zu dem er gehört, immer wieder streitet, ihm aber vor allem als guter Ratgeber in allen Lebenslagen dient, manchmal explizit, manchmal implizit. So stelle ich mir auch die Rolle von realen Robotern in der Gesellschaft vor, als Erzieher, Lehrer, Berater, die die Menschen geistig unterstützen.

Ich denke, die meisten Japaner sehen das ähnlich. Militärische Anwendungen spielen dagegen keine große Rolle. Natürlich können alle Technologien sowohl militärisch als auch nicht-militärisch genutzt werden. Es kommt darauf an, wie die Gesellschaft diese Technologien kontrolliert und dafür sorgt, dass sie humanitär genutzt werden.

heise online: Roboter zwingen uns ja bereits jetzt, bevor sie wirklich einsatzreif sind, darüber nachzudenken, wie sie in die menschliche Gesellschaft integriert werden können. Damit intelligente Maschinen ihren Platz unter den Menschen finden, müssen wir uns über die ethischen Grundlagen unseres Zusammenlebens verständigen. Insofern erweisen sich Roboter heute schon als nützlich.

Asada: Ja, das zeigt sich auch in der Wissenschaft. Disziplinen wie Neurowissenschaft, Kognitionsforschung oder Psychologie stützen sich bislang vor allem auf Beobachtungen und Analysen. Das ist der traditionelle Ansatz. Roboter und Computersimulationen bieten daneben jetzt die Möglichkeit, einen konstruktiven Ansatz zu verfolgen und den Geheimnissen des Menschen auf die Spur zu kommen, indem wir versuchen, ihn teilweise nachzubauen.

Zugleich können uns neue Erkenntnisse zur Ethik helfen, Roboter besser zu gestalten. Roboter werden vielleicht nicht die gleiche Handlungsmacht haben wie Menschen, aber eine ähnliche, die sich teilweise mit der menschlichen überschneidet. Diese Überschneidung ist der wesentliche Teil, den wir mit ihnen teilen können. Ich sehe Roboter als eine Spezies zwischen den Menschen und den nicht-menschlichen Primaten, die mit den anderen Spezies nicht kämpft, sondern kollaboriert. Angesichts der globalen Probleme mit wachsenden Bevölkerungszahlen und immer knapperen Ressourcen haben wir keine Zeit, uns gegenseitig zu bekämpfen. Wir müssen lernen, zusammenzuarbeiten, auch mit künstlichen Systemen.

heise online: Was halten Sie von der These, dass die in westlichen Kulturen verbreitete Angst vor Robotern zumindest teilweise auf die Erfahrungen des Ersten Weltkriegs zurückgeht? Der Begriff „Roboter“ wurde ja drei Jahre nach Kriegsende in Karel Capeks Bühnenstück „R.U.R.“ erstmals verwendet. Das Stück erzählt von der Machtübernahme durch menschenähnliche Arbeitsmaschinen und mag die Erfahrungen der Soldaten verarbeitet haben, die sich in den Schützengräben als willenlose Teile einer gigantischen Kriegsmaschine erlebt haben.

Asada: Wir müssen aus diesen Erfahrungen lernen und unsere Haltung ändern. Die Maschine ist nicht fürs Militär. Maschinen sollen die Gesellschaft und unser Leben verbessern.

heise online: In Europa hat sich die Wissenschaft in Opposition zur Kirche entwickelt. In Japan hat es so eine Epoche der Aufklärung und die damit verbundene Abwertung mystischen Denkens nicht gegeben. Ist das vielleicht ein Grund für die unterschiedliche Bereitschaft, eine Maschine als Person zu akzeptieren?

Asada: In den USA sind religiös motivierte Zweifel an Darwins Evolutionstheorie weit verbreitet. Für Japaner ist das unglaublich. Sie sind Anhänger von Religionen wie Buddhismus oder dem Animismus, wonach alle Dinge eine Seele haben. Aber sie kämen nicht auf die Idee, die Erkenntnisse der modernen Wissenschaft oder Darwins Theorie anzuzweifeln, sondern verfolgen die aktuelle Forschung mit großem Interesse. Unser Bild von Religion ist auch anders: Es geht darin nicht darum, einander zu bekämpfen, sondern zusammenzuarbeiten.

heise online: Wo wir gerade von Religion sprechen: In einem der Vorträge, die wir gerade gehört haben, sagte ein Referent, er glaube nicht daran, dass künstliche Intelligenz jemals das menschliche Niveau erreichen oder sogar überbieten könne. Sind wir darauf vorbereitet, die Entwicklung einer Technologie von solcher Tragweite auf den Glauben zu stützen?

Asada: Martin Ford bat mich vor einigen Jahren um einen Beitrag zu seinem Buch „Rise of the Robots“. Darin beschreibt er, wie immer mehr Arbeitsplätze an die Automatisierung verlorengehen. Tatsächlich steht er der wissenschaftlichen Entwicklung sehr optimistisch gegenüber, ist aber pessimistisch hinsichtlich der zukünftigen Gesellschaft. Ich sehe es genau anders herum. Eine Superintelligenz ist sicherlich möglich. Aber ob wir sie realisieren, steht für mich bei fifty-fifty. Gegenwärtig geht es vorrangig um Quantität: Big Data, noch mehr Speicherkapazität und so weiter. Doch es fehlt noch an Ideen, um damit auch eine neue Qualität und vielleicht eine Superintelligenz zu erschaffen.

Wenn es um spezielle Fähigkeiten geht, ist der Computer dem Menschen ja heute schon überlegen. Aber die Komplexität des menschlichen Geistes nachzubilden, ist keine Kleinigkeit. Dafür müssen wir erst einmal verstehen, wie die Natur das vollbracht hat. Das können wir dann versuchen, im Computer zu rekonstruieren, zum Beispiel künstliche Empathie: Das erfordert die Fähigkeit, den internen Zustand des Gegenüber einzuschätzen. Dazu braucht das System wiederum eine Vorstellung von sich selbst. Das ist eine ganz schöne Herausforderung.

heise online: Ray Kurzweil hat auf longbets.org 10.000 US-Dollar darauf gesetzt, dass bis zum Jahr 2029 ein Computer oder eine künstliche Intelligenz den Turing-Test bestehen wird.

Asada: 2029? Ha, ha, ha...

heise online: Bei dem Test geht es darum, mit einem Menschen Textnachrichten auszutauschen, sodass der Computer auch über längere Zeit nicht von einem menschlichen Kommunikationspartner zu unterscheiden ist. Hat Kurzweil sein Geld schlecht angelegt?

Asada: Das kommt auf die Definition des Turing-Tests an. Heutige Systeme benutzen Tricks, um menschliche Kommunikation vorzutäuschen, sind aber von deren Vielfalt noch weit entfernt. Die Gespräche mit meiner Frau sind manchmal sehr oberflächlich, enthalten kaum Informationen. Oder stellen Sie sich ein verliebtes junges Paar vor, da geht es auch nicht um Inhalte, sondern einfach nur darum, die Zeit miteinander zu verbringen. In einem eng gesteckten Rahmen mag der Turing-Test bald bestanden werden, das zeigen Systeme wie IBMs Watson, die Erfahrungen mit Big Data oder medizinische Dialogsysteme. Angesichts der Komplexität menschlicher Kommunikation kratzt das aber nur an der Oberfläche.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(kbe)