Roboter legt falsche Spur
Wissenschaftler am Georgia Institute of Technology haben Software entwickelt, die einem autonomen Roboter erlaubt, einen Verfolger durch das Legen falscher Spuren in die Irre zu lenken
Wissenschaftler am Georgia Institute of Technology haben Software entwickelt, die einem autonomen Roboter erlaubt, einen Verfolger durch das Legen falscher Spuren in die Irre zu lenken. Die Wissenschaftler ließen zwei Roboter nacheinander durch ein Mini-Labyrinth fahren, wobei der erste Roboter auf seinem Weg zu einem Versteck farbige Kegel umstieß. Der suchende Roboter hatte gelernt, den Weg zum „flüchtenden“ Roboter anhand dieser Spur zu finden. Der erste Roboter wurde daraufhin so programmiert, dass er lernte, falsche Spuren zu legen, um den Suchroboter in die Irre zu lenken. Von 20 Testläufen gelang dies dem ersten Roboter in 15 Fällen. Details des Experimentes beschreiben die Forscher Alan R. Wagner und Ronald C. Arkin in der aktuellen Ausgabe des Fachblatts „International Journal of Social Robotics“.
Was für Menschen auf den ersten Blick trivial aussieht, ist für die Maschinen keineswegs einfach. In Simulationen entwickelten die Forscher zunächst eine Art Messlatte dafür, in welchen Situationen eine Täuschung notwendig und auch höchstwahrscheinlich gewinnbringend ist. Dann programmierten sie den flüchtenden Roboter so, dass er aufgrund der ihm vorliegenden Informationen über seinen Verfolger eine Art Modell von dessen Vorgehen konstruieren konnte. Mit Hilfe dieses Modells rechnete der flüchtende Roboter dann an Wegkreuzungen alle möglichen Szenarien durch, um sich für die mit dem höchsten Täuschungspotenzial zu entscheiden. Bereits im August 2009 hatten Forscher am EPFL in einem Roboter-Experiment gezeigt, dass sich absichtsvolle Täuschung auch aus evolutionärer Entwicklung ergeben kann.
Die Forschungsarbeit von Wagner und Arkin ist von der Forschungsabteilung der US-Marine finanziert worden. Die Forscher sehen allerdings noch mehr als nur rein militärische Anwendungen. So sei es zum Beispiel durchaus denkbar, dass ein Rettungs-Roboter einen in Not geratenen Menschen mit Absicht täuschen müsste, um Panik- oder Abwehr-Reaktionen zu vermeiden. Darüber hinaus sei es jedoch unerlässlich, die ethischen Folgen solcher Experimente zu diskutieren, schreiben die Autoren. „Techniken zur Täuschung können und werden entwickelt werden und wir ermutigen alle relevanten Fachgesellschaften, darüber zu beraten, ob und wenn ja welche Regulierungsmaßnahmen für die Konstruktion solcher Systeme eingeführt werden sollten.“ (wst)