Kriegerische Roboter: Mensch und Maschine kämpfen gemeinsam

Zwischen Robotern und Menschen kann es nicht nur zu Missverständnissen durch die Spracheingabe kommen, auch ist noch unklar, inwieweit der Mensch den Handlungen des Roboters vertrauen kann. Transparenz ist nötig.

In Pocket speichern vorlesen Druckansicht 44 Kommentare lesen
RO-MAN 2016: Mensch und Maschine kämpfen gemeinsam

Ein Atlas-Roboter während des Finales der "DARPA Robotics Challenge". Leo musste sich durch einen Parcours bewegen, mit dem die Grenzen der bisherigen Robotertechnik ausgelotet werden sollten. 

(Bild: Darpa)

Lesezeit: 5 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Es ist ein schwieriger Spagat: Einerseits sollen Roboter mehr und mehr Aufgaben übernehmen, die lästig, langweilig oder gefährlich sind, andererseits soll der Mensch die Kontrolle behalten, insbesondere bei militärischen Einsatzszenarien. Die damit verbundenen Herausforderungen erörterte am letzten Tag der Konferenz RO-MAN 2016 in New York ein Workshop zur Mensch-Roboter-Interaktion im Verteidigungssektor.

Mehr Infos

Dabei fiel zum einen die enge Verzahnung mit ziviler Technologie auf: Mehrere Redner verwiesen auf autonome Fahrzeuge und die damit verbundene, schwierige Frage, wie die Kontrolle zwischen Mensch und Fahrzeug aufgeteilt werden soll. Um das Fahren vollständig dem Auto zu überlassen, müsste die Automatisierung perfekt funktionieren, sagte Greg Trafton vom Navy Research Laboratory, was auf absehbare Zeit nicht realisierbar sein wird.

Eine Überwachung durch den Menschen und die Möglichkeit das Steuer zu übernehmen, sei daher notwendig. Wie diese menschliche Aufsicht genau realisiert werden kann, ist aber auf der Straße ebenso eine offene Frage wie auf dem Schlachtfeld.

Auch Kevin Olden (Lockheed Martin) präsentierte in seinem Vortrag Bilder von autonomen Fahrzeugen und fragte, wie der Mensch auf effektive Weise in der Entscheidungsschleife bleiben könne. Ein Schlüsselbegriff dafür war: Vertrauen.

Ein selbstfahrendes Militärfahrzeug während der Elrob im Juni 2016

(Bild: Hans-Arthur Marsiske )

Dieser Bezug auf soziale und psychologische Aspekte war das zweite auffallende Merkmal der Vorträge und Diskussionen. Sie seien sehr wichtig, betonte Micah H. Clark vom Office of naval Research. Es gebe aber keine gute Methode, sie zu modellieren. So seien die Risiken nur schwer abzuschätzen, etwa wenn mit Robotern in natürlicher Sprache kommuniziert wird.

Menschen würden dazu neigen, den Maschinen mehr Kompetenzen zuzuschreiben, als sie tatsächlich haben und ihnen zum Beispiel ein Verständnis der Gesprächssituation unterstellen, das sie nicht wirklich haben. Der Aufbau von Teams aus Menschen und intelligenten Maschinen sei keine Wunderwaffe, warnte er.

Das wird aber in gewisser Weise von ihnen erwartet. So erklärte der stellvertredende US-Verteidigungsminister Bob Work vor einem Jahr, dass die Third Offset Strategy, mit der die USA ihre militärische Überlegenheit sichern wollen, sich zum großen Teil auf Robotik und autonome Systeme stützen müsse. Charlene Stokes (Yale University), eine der Organisatorinnen des Workshops, gab zu bedenken, dass die vorangegangenen Offsets (Nuklearwaffen und smarte Präzisionsmunition in Verbindung mit GPS) gravierende Auswirkungen gehabt hätten, die weit über den rein militärischen Bereich hinausgegangen seien. „Es hat die ganze Welt verändert“, mahnte sie.

Der Roboter Pepper möchte eine Kundin beraten – ihre geäußerten Wünsche könnten schnell falsch verstanden werden.

(Bild: Softbank Robotics)

Damit Menschen und Maschinen einander vertrauen können, braucht es Transparenz. Das hätten Studien im Rahmen des Projekts RoboLeader gezeigt, sagte Jessie Chen vom Army Research Laboratory. Ein Softwareagent hätte die Route für einen Konvoi geplant, doch die Empfehlungen seien für die Menschen nicht nachvollziehbar gewesen. Ein transparenterer Entscheidungsprozess hätte dagegen zu besseren Ergebnissen geführt, ohne die Arbeitsbelastung des Menschen zu erhöhen. Eine Herausforderung für die Zukunft bestehe darin, das richtige Maß an Selbsterklärung für den Agenten zu finden. Außerdem müsse die Transparenz in beiden Richtungen wirken: Der Agent müsse auch den Menschen verstehen.

Gerade bei sozialen Normen sei künstliche Intelligenz aber noch sehr schwach, gab Reza Ghamadan (Darpa) zu bedenken. Auch sei noch unklar, ob es fundamentale Grenzen fürs maschinelle Lernen gebe und wo sie möglicherweise liegen. Vielleicht gebe es für das Lernen aus Daten etwas ähnliches wie in der Nachrichtentechnik das Shannon-Limit, das eine theoretische Obergrenze für die Datenübermittlung markiert.

Während die meisten Referenten Fragen aufwarfen und Konzepte vorstellten, vermittelte Mark Draper (Air Force Research Laboratory) ein Ahnung vom Stand der technologischen Entwicklung. Demnach wird gegenwärtig in der Simulation ein System getestet, bei dem ein Operator 12 unbemannte Systeme kontrolliert: vier in der Luft, vier am Bodern, vier auf dem Wasser. Die Kommunikation erfolgt in einem intuitiven Dialog zwischen Mensch und Maschine, bei dem Sprache, Landkarten und Kontrollverfahren aus Computerspielen verwendet werden.

Statt jede einzelne Aktion der Roboter zu kontrollieren, wird das Prinzip des „Play Calling“ verwendet, das aus dem American Football stammt und bei dem ganze Spielzüge abgerufen werden. Die bisherige Resonanz auf diese Nutzerschnittstelle sei positiv gewesen, bei den derzeit laufenden Tests sei für die Operator ein Training von lediglich einem Tag vorgesehen. Ein automatische Task Manager achte darauf, dass sich die Arbeitsbelastung des Menschen in erträglichen Grenzen halte. Zur Entlastung käme auch ein Sensor-Operator zum Einsatz, um die Menge der ankommenden Daten zu bewältigen. Zukünftig müsste aber die Intelligenz der Roboter ebenfalls erhöht werden, um die Arbeitslast zu verteilen. (kbe)