"Sollten Roboter lügen, Herr Arkin?"

Der Robotiker Ronald Arkin entwickelt Maschinen, die täuschen und betrügen können. Und hält das trotzdem für einen Fortschritt.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 4 Min.

Der Robotiker Ronald Arkin entwickelt Maschinen, die täuschen und betrügen können. Und hält das trotzdem für einen Fortschritt.

TECHNOLOGY REVIEW: Professor Arkin, Sie haben zwei Roboter gebaut, die miteinander Verstecken spielen. Wie sind Sie überhaupt auf diese Idee gekommen?

RONALD ARKIN: Der Ausgangspunkt waren Forschungsarbeiten zum Vertrauensverhältnis zwischen Mensch und Maschine. Die meisten Forscher haben bislang untersucht, wann ein Mensch einer Maschine trauen kann. Im Unterschied dazu haben wir uns gefragt: Unter welchen Umständen sollte ein Roboter einem Menschen trauen?

Das klingt für mich sehr akademisch. Warum ist das wichtig?

Denken Sie an den Anschlag vom 11. September 2001. Wir wissen, dass die Flugzeugsysteme Alarm gegeben haben, als die Maschine direkt auf die Hochhäuser zusteuerte. Aber wir erlauben auch in solchen Fällen einer Maschine nicht, die Kontrolle von den menschlichen Piloten zu übernehmen. Das hat uns zu der Frage gebracht: Können wir Modelle entwickeln, die dem Roboter erlauben zu verstehen, was der Mensch sich denkt, wenn er bestimmte Befehle gibt? Danach war es nur konsequent, sich der Täuschung zuzuwenden. Lüge, Betrug – das ist die Kehrseite des Vertrauens. Jeder gute Betrüger weiß, dass er zunächst ein Vertrauensverhältnis zu seinem Opfer aufbauen muss, bevor er jemanden übers Ohr hauen kann. In gewisser Weise war das also die Fortsetzung früherer Forschungsarbeiten. Das hat zu anderen Arbeiten geführt. Wir haben zum Beispiel biologische Modelle der Täuschung getestet. Betrug ist weit verbreitet in der Natur.

2012 untersuchten die Forscher um Arkin eine verfeinerte Version des Versteckspiels, die sie sich bei Eichhörnchen abgeschaut hatten. Die Tiere schützen ihre Nussvorräte vor anderen Eichhörnchen, indem sie die Konkurrenten zu leeren Scheinverstecken lotsen. Arkin und sein Team konnten zunächst in Simulationen zeigen, dass sich diese Strategie auch für Roboter umsetzen ließ. In einem realen Experiment ließen sie zwei autonome Roboter gegeneinander antreten. Der erste, der „Sammler“, musste farbige Pappscheiben einsammeln und sie zu „Verstecken“ bringen, die durch blaue Eimer markiert waren. Hatte er genug „Futter“ gesammelt, schaltete das Steuerprogramm um. Der Roboter patrouillierte zwischen den Verstecken, um seine Vorräte zu kontrollieren. Der „Räuber“ irrte zunächst zufällig auf dem Spielfeld herum, bis er den Sammler entdeckte, dem er dann zu den Verstecken folgte. Entdeckte der Sammler wiederum, dass ihm Vorräte gestohlen wurden, steuerte er nur noch Scheinverstecke an. Fand der Räuber nach einiger Zeit keine Beute, machte er sich auf die Suche nach einem neuen Opfer. In dem Paper räumen die Forscher allerdings ein, dass das Experiment stark vereinfacht ist – in weiteren Experimenten wollen sie eine größere Gruppe von Robotern einbeziehen, die den Ort ihrer Verstecke frei wählen können.

Waren Sie denn die ersten, die sich mit diesen Fragen beschäftigt haben?

Ja und nein. Nehmen Sie Alan Turing. Sein berühmter Test, bei dem eine Maschine dann als intelligent gilt, wenn sie so tun kann, als ob sie ein Mensch sei, beruht im Kern auf einer Täuschung. Das Konzept der Täuschung ist in gewisser Weise von Anfang an Teil der Forschung zu künstlicher Intelligenz gewesen. Aber nur wenige Wissenschaftler haben sich bislang mit dem physischen Aspekt beschäftigt, also mit Robotern, die lügen. Einer der ersten war mein Schweizer Kollege Dario Floreano. Er hat sich mit der evolutionären Entstehung der Täuschung in Roboterschwärmen befasst.

Wissenschaftler um Dario Floreano von der Eidgenössischen Technischen Hochschule in Lausanne ließen 2009 eine Gruppe von Robotern in einem Testareal auf die Suche nach „Nahrung“ gehen. Fand ein Roboter ein Nahrungsfeld, wurde ihm pro Spielrunde ein Punkt gutgeschrieben. Abzüge gab es hingegen dafür, sich an eine Stelle im Raum zu begeben, die die Forscher als „Gift“ gekennzeichnet hatten. Die erfolgreichsten Roboter durften ihre Steuerungsalgorithmen den anderen weitervererben – angereichert mit einigen zufälligen Änderungen. Die kleinen Maschinen besaßen zudem Lämpchen. Zunächst leuchteten sie zufällig, deshalb war es an Futterstellen, an denen sich viele von ihnen sammelten, hell. Weil die Roboter Licht auf kurze Entfernung auch sehen konnten, lernten sie schnell, nach Helligkeit zu suchen, um Futter zu finden. Weil der Platz an den Futterstellen jedoch nie für alle Roboter ausreichte, blinkten einige Maschinen schon nach 50 Generationen nicht mehr, wenn sie Futter gefunden hatten.

(wst)