Forscher: Auch Roboter, die lügen können, müssen sich an Regeln halten

Ronald Arkin entwickelt Maschinen, die täuschen und betrügen können. Warum er das für nötig hält, erklärt der Robotiker im Interview mit Technology Review.

In Pocket speichern vorlesen Druckansicht 34 Kommentare lesen
Lesezeit: 2 Min.

2010 veröffentlichten Ronald Arkin und Alan Wagner vom Georgia Institute of Technology ein auf den ersten Blick anscheinend skurriles Experiment: Sie programmierten einen Roboter, einen anderen Roboter in die Irre zu führen. Im Interview mit Technology Review erklärt Arkin, warum er diese Forschung für sinnvoll und notwendig hält.

Die Grundlagen für ihre betrügerischen Roboter fanden die Wissenschaftler in der mathematischen Spieltheorie. Der Roboter berechnet aus den Aktionen seines Gegenüber - in diesem Fall ein zweiter Roboter - so genannte„Interaktionsmatrizen“. So entsteht ein mathematisches Modell von Aktion und Reaktion mit allen möglichen Verläufen. Daraus leitet die Maschine ab, wie sie ihr Gegenüber am wahrscheinlichsten planvoll täuschen kann. Inspirationen für andere Täuschungsalgorithmen fanden Arkin und Kollegen aber auch im Verhalten vieler Tierarten, wie Antilopen oder Einchhörnchen.

"Es hat sehr viele geradezu hysterische Artikel in den Medien gegeben, nach denen das Ende der Welt bevorsteht, wenn wir Robotern erlauben würden, über Tricks und Täuschung auch nur nachzudenken", sagt Arkin im Interview mit Technology Review."Wir müssen aufmerksam gegenüber potenziell dystopischen Entwicklungen sein. Aber ein guter Teil der Angst, die die Leute haben, ist verursacht durch düstere Science-Fiction-Visionen. Die finde ich unterhaltsam. Aber man muss sich bewusst darüber sein, dass es nur Geschichten sind – keine Realität."

Im "militärischen Kontext" gäbe es zwar viele Anreize, aktiv täuschende Roboter einzusetzen, räumt Arkin ein. "Aber auch hier gibt es natürlich Grenzen. Sich tot zu stellen beispielsweise oder Kampfunfähigkeit vorzutäuschen, um den Gegner dann anzugreifen, verstößt gegen die Genfer Konventionen." In Forschungsprojekten zu bewaffneten autonomen Robotern hätte sein Team "Methoden entwickelt, mit denen wir die Einhaltung ethischer Prinzipien technisch erzwingen können". Ein Software-Modul beurteile die Aktionen nach ethischen Gesichtspunkten und könne im Zweifelsfall - beispielsweise um zivile Opfer zu verhindern- die Waffen deaktivieren.

"Ich gehe davon aus, dass man so etwas auch auf Täuschung anwenden kann", sagt Arkin. "Es gibt Situationen, in denen Lüge und Täuschung für Maschinen unmoralisch sind – und daher illegal. Wie Sie wissen, hält das Menschen nicht davon ab zu lügen. Bei Computern wird das hoffentlich etwas einfacher."

Mehr in Technology Review 9/2014:

(wst)