Einsatzregeln für Kampfroboter

Noch werden die Waffen von unbemannten Systemen aus der Ferne von Menschen bedient, aber man überlegt bereits, unter welchen Bedingungen sie auch autonom feuern sollten

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

In einer Pentagon-Veröffentlichung wird als das einfachste "Jagd- und Tötungssystem" (hunter-killer system), das mit Sensoren und Waffen ausgestattet ist und ohne Koordination mit anderen Systemen "zeitkritische", also mobile Ziele angreifen kann, der Infanteriesoldat benannt. Er sieht den Feind und schießt auf ihn mit seiner mitgeführten Waffe. Bewaffnete, unbemannte Robotsysteme sind vielversprechende neue Versionen dieses primitiven Waffensystems. Noch werden die Waffen nur auf Kommando von Menschen bedient, aber die Zeit von halbautonomen oder autonomen Kampfrobotern in der Luft, auf dem Boden und zu Wasser bricht an und damit die Frage, ob die Regeln des Kampfeinsatzes (rules of engagement) vom menschlichen Befehlsweg losgelöst und in Software implementiert werden können, also ob und auf welcher Entscheidungsgrundlage Kampfroboter schießen und töten sollen.

In der Studie "Modeling Cognitive and Tactical Aspects in Hunter-Killer Missions" heißt es lapidary:

Die Tötungskette zu kompriminieren, ist eine weithin anerkannte Notwendigkeit. Jagd- und Tötungssysteme, vor allem UCAVs (unbemannte Kampfflugzeuge), werden als eine der vielversprechdendsten Antworten auf diese Notwendigkeit betrachtet. Um ein zeitkritisches Ziel anzugreifen, sollte der Angreifer sehen, wenn es entdeckt wurde, und es ohne Verzögerung angreifen.

Das würde bedeuten, dass der noch in der Handlungsfolge eingebettete Mensch, der die Verantwortung für den Angriff trägt und ihn auslöst, wegfallen soll. Auch wenn, wie John Klein in The Problematic Nexus: Where Unmanned Combat Air Vehicles and the Law of Armed Conflict Meet, die daraus entstehenden ethischen und rechtlichen Probleme in den Blick geraten, so heißt es lediglich, man solle vorerst Menschen im "Zyklus von Identifikation und Zielentscheidung" (Man-in-the-Loop) integrieren, das würde "die Wahrscheinlichkeit von zufälligen Todesfolgen und Kollateralschäden während Kampfhandlungen reduzieren". Zudem würden damit die traditionellen Verantwortungsstrukturen beibehalten werden.

Interessant sind auch die hier angestellten Überlegungen, welche Folgen ferngesteuerte und autonome Kampfroboter für das geltende Kriegsrecht mit sich bringen. Gilt beispielsweise das Selbstverteidigungsrecht, wenn sie angegriffen werden? Sind Piloten, die solche Roboter aus der Ferne steuern, noch Soldaten, genießen sie also den Schutz der Genfer Konventionen für "legale Kämpfer" oder könnten sie als "illegale Kämpfer" behandelt werden? Und wer kann zur Verantwortung gezogen werden, wenn autonome Kampfroboter unverhältnismäßige Gewalt anwenden oder unbeteiligte Zivilisten töten? Würde dafür der Kommandeur der für den Kampfroboter zuständigen Einheit, die Soldaten, die diesen gestartet haben, das Pentagon als Auftraggeber oder auch die Programmierer sein, die die Software geschrieben haben?

Kürzlich hat John Canning vom Naval Surface Warfare Center in A Concept of Operations for Armed Autonomous Systems eine "Lösung" vorgestellt, die es erlauben könne, autonomen Kampfroboter auch ohne Zwischenschaltung von Menschen den Einsatz von tödlicher Gewalt zu gewähren und damit die Bühne betreten zu lassen.

Talon-Roboter mit einem Granatwerfer von Metal Storm. Bild: Metal Storm

Das Pentagon prüft alle Waffensysteme vor der Zulassung. So sollen, wie Canning die wichtigsten Prinzipien darstellt, Waffen keine überflüssigen, nutzlosen oder unangemessenen Leiden verursachen. Waffen sollen so sein, dass sie sich gegen legale Ziele richten, also dass es mit ihnen möglich ist, legale und illegale Ziele bei einem Angriff zu unterscheiden (discriminate use of force – DUF). Zudem müssen gesetzliche Vorgaben eingehalten werden.

Für bewaffnete autonome Systeme sei die Frage entscheidend, ob deren Waffen es ermöglichen, nur legale Ziele anzugreifen (was nicht heißen muss, dass es nicht zivile Opfer geben kann, sie sollen aber nur als Kollateralschaden entstehen). Canning zitiert einen Rechtsexperten vom Legal Center and School der US-Luftwaffe, der die Situation klar stellt:

Wir können Objekte angreifen, wenn sie militärische Ziele sind, und wir können Menschen angreifen, wenn es militärische Ziele sind. Wenn Menschen oder Eigentum kein militärisches Ziel sind, greifen wir sie nicht an. Es kann etwas zerstört werden oder es kann Kollateralschaden geben, aber wir zielen nicht darauf. In vielen Situationen können wir daher den Menschen angreifen, der das Gewehr hält, und/oder das Gewehr. Rechtlich macht dies keinen Unterschied.

Der Vorschlag von Canning ist, Maschinen nur andere Maschinen anzielen und angreifen zu lassen. Damit könnten Gegner auch entwaffnet werden, ohne sie töten zu müssen. Das ließe sich beispielsweise mit nichttödlichen Waffen erreichen, die von autonomen Robotern zuerst eingesetzt werden, um die Menschen von ihren Waffen zu vertreiben, bevor diese von den Kampfrobotern vernichtet werden. Wenn es um Angriffe auf Menschen gehe, sollte man weiterhin ferngesteuerte Kampfroboter einsetzen, bei denen Menschen die Waffen auslösen. Man könne Kampfroboter auch so konstruieren, dass sich der Grad ihrer Autonomie auf Knopfdruck verändern lässt.

Konstruieren wir unsere bewaffneten unbemannten Systeme so, dass sie automatisch die von unseren Gegnern benutzten Waffen erkennen, anzielen und neutralisieren oder zerstören, aber nicht die Menschen, die die Waffen bedienen.

Die Strategie des Offiziers geht also dahin, dass man autonome Kampfroboter nur unbelebte Dinge wie Waffen oder Maschinen angreifen lässt. Wenn dabei Gegner oder unbeteiligte Zivilisten zu Schaden kommen, ist das nur Kollateralschaden, mit dem man rechnen muss oder der nicht vermeidbar ist. Sorgen bereitet dem Militär, dass der Gegner die autonomen Systeme austricksen könnte, so dass sie Menschen töten, wodurch die politische Unterstützung "praktisch sofort verschwinden" könnte. Hier wird empfohlen, die Daten der Sensoren zu speichern, um die Schuld des Gegners nachweisen zu können.

Ob mit solchen Begründungen und Restriktionen für autonome Kampfroboter, die deren Einsatz legitimieren sollen, oder durch andere Regeln oder technische Systeme, die Bühne für den Auftritt von selbständig agierenden Kampfsystemen ist vorbereitet. Jetzt muss man nur noch darauf warten, wann die ersten Menschen von solchen Systemen getötet werden.