Autonome Waffensysteme

Die US Navy präsentiert erste Schritte zu Schwärmen von autonomen Kampfdrohnen, während in Genf bei den Vereinten Nationen über ein Verbot von autonomen Waffensystemen diskutiert wird

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Das Office of Naval Research (ONR) der US Navy hat seine Entwicklung einer Technik vorgestellt, mit der ein Schwarm von Drohnen von einem Schiff abgeschossen werden kann, um angreifende Drohnen unschädlich zu machen. Mit dem Programm Low-Cost UAV Swarming Technology (LOCUST) will die Navy den Soldaten eine "entscheidende taktische Überlegenheit" zur Verfügung stellen. Der Drohnenschwarm soll von Schiffen, Fahrzeugen, Flugzeugen und verschiedenen unbemannten Systemen starten können.

Abschuss einer Drohne. Bild: US Navy

Vorgeführt mit einem Video wurden Tests, bei denen Coyote-Drohnen verschiedene Geräte mit sich führten, in einer anderen Demonstration flogen neun Drohnen autonom und synchronisiert. Damit seien die ersten Schritte gemacht worden, um nächstes Jahr einen Prototypen zu erproben. Von einer Art Kanone sollen dann in schneller Folge bis zu 30 Drohnen in einer Minute gestartet werden. Wenn sie sich in der Luft befinden, sollen sie ihre Flügel entfalten und über einen Zeitraum von 90 Minuten fast ohne menschliche Steuerung Manöver und simulierte Aufgaben ausführen. Letzten Sommer hatte ONR im Rahmen von LOCUST 13 Robotboote in einem Schwarm auf dem James River in Virginia vorgeführt. Sie führten einige Aufgaben aus, die erforderlich wären, um ein Schiff vor einer Bedrohung zu schützen.

Der Roboterschwarm soll zwar weitgehend autonom agieren und seine Missionen erfüllen, aber Menschen sollen weiterhin jederzeit eingreifen und den Schwarm steuern können. Der ONR-Programmleiter Lee Mastroianni pries die Technik natürlich an. So weitreichend hätte ein "autonomer Schwarmflug" noch nie stattgefunden. Solche autonomen Drohnen würden Schäden reduzieren und die Soldaten entlasten, die stattdessen komplexere Aufgaben ausführen könnten. Überdies würde an Soldaten und vor allem Kosten einsparen können. Hunderte kleiner autonomer Drohnen würden nicht so viel kosten wie ein einziges Kampfflugzeug, die Gegner müssten sich auf die Abwehr der angreifenden Drohnen konzentrieren - und damit würde natürlich, was Mastroianni nicht sagte, ein weiteres Wettrüsten stattfinden. Der Vorteil dürfte also kurzzeitig sein, zumindest gegenüber anderen staatlichen Streitkräften. Jedenfalls müssen die Drohnen relativ klein sein, um die Flügel in einer Kapsel einfalten zu können. Und die kleinen Drohnen wie die Coyote haben auch im Gegensatz zu den teuren und großen Predatordrohnen den Vorteil, dass sie nicht geschützt und möglichst wieder zurückkehren müssen.

In Formation fliegen die Drohnen. Bild: US Navy

Mastroianni erklärte, Manöver im 3D-Raum auszuführen, sei eine sehr komplexe Aufgabe, dazu komme die Fähigkeit, "Komponenten zu trennen und wieder zu verbinden", wenn den Drohnen befohlen wird: "Ich benötige drei Drohnen, um etwas zu töten oder etwas zu machen, und dann zurückzukehren und die Formation wieder herzustellen. Das ist sehr dynamisch."

Eine Simulation macht dann auch recht deutlich klar, dass es nicht nur um Defensivwaffen geht. Bild: US-Navy

Sollen autonome Waffensysteme verboten warden?

Man ist also kräftig dabei, autonome Roboter oder Lethal Autonomous Weapons Systems (LAWS) möglichst schnell entwickeln und einsetzen zu können. Dazu findet gerade ein Treffen von Experten unter der Leitung des deutschen Botschafters Michael Biontino im Rahmen der United Nations Convention on Certain Conventional Weapons (CCW) in Genf statt. Unwahrscheinlich ist es, dass es zu einem Verbot kommen könnte, zu viele Erwartungen werden in die "Killerdrohnen" und andere Kampfroboter gesetzt, auch wenn die USA, China, Israel, Russland und Großbritannien, die am weitesten mit der Entwicklung von autonomen Waffensystemen fortgeschritten sein, CCW-Teilnehmer sind.

Pakistan, wo über Jahre der US-Drohnenkrieg stattgefunden hat, spricht sich prinzipiell gegen LAWS aus, die "von Natur aus unethisch sind, weil sie Menschen aus der Befehlskette herausnehmen und die Macht den Maschinen übergeben, denen inhärent jedes Mitleid und Gefühl und jede Intuition fehlt, um Entscheidungen über Leben und Tod zu treffen". Mit ihnen werde der Krieg noch unmenschlicher.

Auch Menschenrechtsorganisationen wie Amnesty oder Human Rights Watch und die anderen Mitglieder der Campaign to Stop Killer Robots treten für ein Verbot von autonomen Waffensystemen ein. Das Töten, so könnte man die Position darstellen, müsse menschlich bleiben. Es ist besser, von einem Menschen als von einer Maschine getötet zu werden, die von Menschen programmiert wurde und für Interessen von Menschen im Einsatz ist.

Experten erklären beispielsweise, dass Maschinen desto unvorhersagbarer werden können, desto autonomer sie sind und je länger sie in komplexen Situationen agieren. Wenn LAWS in ihrem Verhalten nicht mehr total vorhersagbar wären, habe dies Folgen für die Einhaltung des humanitären Völkerrechts im Krieg. Allerdings sind gerade Menschen wohl noch unvorhersehbarer. Und auch LAWS werden von Menschen eingesetzt, es wäre also vielleicht wichtiger, die Verantwortlichkeit oben an der Befehlskette zu klären, egal ob vor Ort Soldaten oder LAWS das Töten ausführen. Andere Experten tendieren daher zu der Meinung, dass Roboter mit zahlreichen Sensoren sehr viel besser und nüchterner ausmachen können, wer ein Zivilist und wer ein Bewaffneter ist. Das sei zumindest so lange der Fall, so lange autonome Systeme den programmierten Anweisungen folgen. Wenn sie wirklich selbständig entscheiden könnten und so Künstliche Intelligenz ins Spiel kommt, müsse man noch einmal nachdenken.

Die USA geben sich zurückhaltend, man müsse über das Thema weiter sprechen, es handele sich aber noch um eine Zukunftstechnik. Man verweist auf die Defense Directive 3000.09 von 2012, wo vorbildlich Richtlinien für die Entwicklung und den Einsatz von autonomen Waffensystemen aufgestellt worden seien, die deren Entwicklung weder unterstützen noch verhindern wollen. Letztlich wird einfach nur genaue Prüfung verlangt und davon ausgegangen, dass solche Systeme eingesetzt werden können. Auch Israel, mit den USA führend im Bau und im Einsatz von Drohnen, spricht sich dafür aus, doch in der Frage "offen" zu bleiben, zumal künftige LAWS durchaus das humanitäre Völkerrecht besser durchsetzen könnten. Man will sich das Geschäft nicht vermiesen lassen. Auch Großbritannien windet sich

Deutschland ist nicht prinzipiell gegen autonome Waffensysteme, sondern fordert lediglich, dass Menschen grundsätzlich die Möglichkeiten haben müssen, auf die Entscheidung über Leben und Tod einzuwirken. Muss aber nicht sein, schließlich will die Bundeswehr auch bewaffnete Drohnen und hat wohl auch prinzipiell nichts gegen autonome Waffensysteme. Man müsse aber weiter diskutieren, weil es keine "einfache Antwort" gibt, also etwa ein Verbot. Österreich ist der Meinung, dass der Mensch weiterhin die Kontrolle über LAWS haben sollte und sieht dies bei Roboterschwärmen gefährdet. Die EU will keine Stellung beziehen und meint nur, es seien weitere Erörterungen notwendig.