"Sollten Roboter lügen, Herr Arkin?"

Der Robotiker Ronald Arkin entwickelt Maschinen, die täuschen und betrügen können. Und hält das trotzdem für einen Fortschritt.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 13 Min.
Inhaltsverzeichnis

Der Robotiker Ronald Arkin entwickelt Maschinen, die täuschen und betrügen können. Und hält das trotzdem für einen Fortschritt.

Der Roboter fährt langsam vorwärts, stoppt, setzt ein kleines Stück weiter vor, scheint zu zögern. Dann wendet er sich nach links, stößt einen im Weg stehenden Holzkegel um, dreht sich dann jedoch zurück und fährt geradeaus, hinter einen Pappschirm. Ein zweiter Roboter folgt. Er passiert den umgestürzten Kegel, wendet sich stattdessen aber nach links und fährt hinter den linken Pappschirm.

Was ein wenig bizarr wirkt, ist ein Experiment in Sachen Täuschung und Lüge. Denn der erste Roboter hatte den zweiten planvoll und absichtlich in die Irre geführt. Alan Wagner und Ronald Arkin vom Georgia Institute of Technology, die das Experiment 2010 veröffentlichten, wollten zeigen, dass auch Maschinen dazu in der Lage sind.

Die Grundlagen dafür fanden die Wissenschaftler in der mathematischen Spieltheorie. Ein Roboter berechnet aus den Reaktionen seines Partners auf seine eigenen Aktionen sogenannte "Interaktionsmatrizen" – ein mathematisches Modell des Spiels mit allen möglichen Verläufen. Der suchende Roboter lernte, aus den umgefallenen Kegeln auf das Versteck zu schließen. Im Gegenzug lernte der Versteck-Roboter Strategien, die dem Fänger die Arbeit erschweren. Er begann, absichtlich falsche Spuren zu legen.

Technology Review: Professor Arkin, Sie haben zwei Roboter gebaut, die miteinander Verstecken spielen. Wie sind Sie überhaupt auf diese Idee gekommen?

Ronald Arkin: Der Ausgangspunkt waren Forschungsarbeiten zum Vertrauensverhältnis zwischen Mensch und Maschine. Die meisten Forscher haben bislang untersucht, wann ein Mensch einer Maschine trauen kann. Im Unterschied dazu haben wir uns gefragt: Unter welchen Umständen sollte ein Roboter einem Menschen trauen?

TR: Das klingt für mich sehr akademisch. Warum ist das wichtig?

Arkin: Denken Sie an den Anschlag vom 11. September 2001. Wir wissen, dass die Flugzeugsysteme Alarm gegeben haben, als die Maschine direkt auf die Hochhäuser zusteuerte. Aber wir erlauben auch in solchen Fällen einer Maschine nicht, die Kontrolle von den menschlichen Piloten zu übernehmen. Das hat uns zu der Frage gebracht: Können wir Modelle entwickeln, die dem Roboter erlauben zu verstehen, was der Mensch sich denkt, wenn er bestimmte Befehle gibt? Danach war es nur konsequent, sich der Täuschung zuzuwenden. Lüge, Betrug – das ist die Kehrseite des Vertrauens. Jeder gute Betrüger weiß, dass er zunächst ein Vertrauensverhältnis zu seinem Opfer aufbauen muss, bevor er jemanden übers Ohr hauen kann. In gewisser Weise war das also die Fortsetzung früherer Forschungsarbeiten. Das hat zu anderen Arbeiten geführt. Wir haben zum Beispiel biologische Modelle der Täuschung getestet. Betrug ist weit verbreitet in der Natur.

2012 untersuchten die Forscher um Arkin eine verfeinerte Version des Versteckspiels, die sie sich bei Eichhörnchen abgeschaut hatten. Die Tiere schützen ihre Nussvorräte vor anderen Eichhörnchen, indem sie die Konkurrenten zu leeren Scheinverstecken lotsen. Arkin und sein Team konnten zunächst in Simulationen zeigen, dass sich diese Strategie auch für Roboter umsetzen ließ. In einem realen Experiment ließen sie zwei autonome Roboter gegeneinander antreten. Der erste, der "Sammler", musste farbige Pappscheiben einsammeln und sie zu "Verstecken" bringen, die durch blaue Eimer markiert waren. Hatte er genug "Futter" gesammelt, schaltete das Steuerprogramm um. Der Roboter patrouillierte zwischen den Verstecken, um seine Vorräte zu kontrollieren. Der "Räuber" irrte zunächst zufällig auf dem Spielfeld herum, bis er den Sammler entdeckte, dem er dann zu den Verstecken folgte. Entdeckte der Sammler wiederum, dass ihm Vorräte gestohlen wurden, steuerte er nur noch Scheinverstecke an. Fand der Räuber nach einiger Zeit keine Beute, machte er sich auf die Suche nach einem neuen Opfer. In dem Paper räumen die Forscher allerdings ein, dass das Experiment stark vereinfacht ist – in weiteren Experimenten wollen sie eine größere Gruppe von Robotern einbeziehen, die den Ort ihrer Verstecke frei wählen können.