Roboterwaffen brauchen Regeln – aber welche?

In Berlin diskutierten Experten über autonome Waffensysteme: solche, die schon existieren und auch über solche, die es noch gar nicht gibt.

In Pocket speichern vorlesen Druckansicht 60 Kommentare lesen
Roboterwaffen brauchen Regeln – aber welche?
Lesezeit: 5 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

"Roboter regulieren" lautete der Titel einer Diskussionsrunde, zu der die Stiftung Wissenschaft und Politik und die Heinrich-Böll-Stiftung nach Berlin eingeladen hatten. Obwohl das zivile Nutzungen nicht grundsätzlich ausschloss, standen militärische Aspekte im Vordergrund – und die wachsende Erkenntnis, dass sie sich immer schwerer von ziviler Robotik trennen lassen.

Vom "Stand der internationalen Verhandlungen" – so der Untertitel der Veranstaltung – konnte Botschafter Michael Biontino, ständiger Vertreter Deutschlands in der Genfer Abrüstungskonferenz, aus erster Hand berichten. Im Jahr 2014 begannen hier unter dem Titel LAWS (Lethal Autonomous Weapon Systems) Diskussionen über autonome Waffensysteme, die seit 2015 von Biontino geleitet werden. Aus den bislang informellen Beratungen ist zuletzt ein formelles Gremium, eine "intergovernmental group of experts" geworden. Auch diese Gruppe habe aber nach wie vor ein Diskussionsmandat, kein Verhandlungsmandat, betonte Biontino.

Denn bevor Verträge über Rüstungsbegrenzungen oder gar Verbote ausgehandelt werden können, muss erst einmal klar sein, worüber eigentlich geredet wird. Das ist schon schwierig genug. Durchgehendes Thema der bisherigen Debatten sei eine tragfähige Definition autonomer Waffensysteme gewesen, erläuterte Biontino. Dabei habe es sich als zielführender erwiesen, über den Begriff "sinnvolle menschliche Kontrolle" (meaningful human control) zu reden als über technische Regeln. Ein Grad von Unberechenbarkeit und Unvorhersehbarkeit gehöre essentiell zu diesen Systemen, ein möglicher Kontrollverlust zähle daher zu den wichtigsten damit verbundenen Risiken.

Wie lassen sich Waffensysteme kontrollieren, die es noch gar nicht gibt? Igor L. Fayler von der Umweltorganisation E3G gab zu bedenken, dass ein Großteil der Technik für autonome Waffensysteme aus ziviler Forschung hervorgehe. Eine präventive Rüstungskontrolle könne daher leicht mit der Freiheit der Wissenschaft in Konflikt geraten.

Aber was genau bedeutet "autonom"? Wie unterscheidet es sich von "automatisch"? Julia Buchholtz vom Institut für Friedensforschung und Sicherheitspolitik Hamburg (IFSH) verdeutlichte im Vergleich mit menschlicher Autonomie, wie schwierig der Begriff zu fassen ist. In einer ersten Annäherung ließe sich Autonomie systemtheoretisch als Fähigkeit begreifen, Regeln zu folgen, sich aber zugleich auch Regeln setzen zu können, schlug sie vor. Im Unterschied zu technischer sei menschliche Autonomie nicht graduierbar, sondern absolut. In jedem Fall ginge bei technischen Systemen erhöhte Autonomie einher mit einem geringerer Transparenz.

Christoph Mohr (Friedrich-Ebert-Stiftung, Berlin) warf einen spieltheoretischen Blick auf das Thema und kam zu einem ernüchternden Ergebnis: Die Entwicklung einer Waffe erfordere keine Kooperation, ihre Begrenzung dagegen schon. Vor diesem Hintergrund ist es bemerkenswert, wie schnell die Verhandlungen der Vereinten Nationen zum Thema autonome Waffensysteme bislang vorangekommen sind.

Er habe 2007 erstmals von den Forschungen Ronald Arkins zu ethisch handelnden Militärrobotern erfahren und es zunächst für Science-Fiction gehalten, sagte Frank Sauer von der Universität der Bundeswehr in München. Zehn Jahre später werde nun auf UN-Ebene ernsthaft darüber verhandelt. Das sei erst einmal ermutigend, zumal auch bisher kein Staat erklärt habe, diese Systeme unbedingt einsetzen zu wollen. Ein definitorischer Ansatz, der genau zu erfassen versucht, welche Systeme verboten werden sollen, werde aber kaum weiterführen. Die Technik entwickle sich schneller als Normen und Institutionen.

In eine ähnliche Richtung argumentierte Elvira Rosert (Hessische Stiftung Friedens- und Konfliktforschung). Definitionen müssten nicht notwendigerweise Voraussetzungen der Verhandlungen sein, sondern deren Bestandteil. Das habe in den Diskussionen über Streumunition gut funktioniert. Die Ächtung der Folter komme sogar ganz ohne eine präzise Definition aus. Rosert schlug vor, die "meaningful human control" generell als völkerrechtliches Prinzip zu verankern, unabhängig von konkreten Waffensystemen.

Rüstungskontrolle müsse sich aus der Enge der traditionellen Verfahren lösen, forderte Igor Fayler. Sie müsse die Innenpolitik stärker einbeziehen und sich auf eine Dynamik in der Zivilgesellschaft stützen. Die Verhandlungen bei den Vereinten Nationen zum Übereinkommen über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen, die übermäßige Leiden verursachen oder unterschiedslos wirken können (Convention on Certain Conventional Weapons, CCW) wollte aber vorerst niemand aufgeben.

Jürgen Altmann (TU Dortmund) könnte sich zwar ein besseres Forum vorstellen, hält das aber für die nächsten fünf bis zehn Jahre für unrealistisch. Wenn allerdings auch bis dahin kein Verhandlungsprotokoll zustandekäme, müssten vielleicht einige wohlmeinende Länder gesucht werden, die bei der Kontrolle autonomer Waffensysteme die Vorreiterrolle übernehmen wollen. Deutschland könnte sich mit anderen westlichen Nationen zusammenschließen, um ein Moratorium autonomer Waffensysteme zu erklären. Rosert wünschte sich einen "Berliner Prozess", analog zum Oslo-Prozess, bei dem das Abkommen zum Verbot von Streumunition ausgehandelt wurde.

Gregor Enste von der Heinrich-Böll-Stiftung verglich die Bedeutung der Militärrobotik mit der Erfindung der Schusswaffen und verwies damit auf die historische Dimension der Debatte. Die Feuerwaffen, erfunden vor 700 Jahren in Europa, setzten nichts Geringeres als den größten Rüstungswettlauf der Menschheitsgeschichte in Gang, der die Welt bis heute in Atem hält. Heute könnte sich eine deutsche Bundeskanzlerin (oder ein Bundeskanzler) auf den legendären Erfinder der Kanone, Berthold Schwarz berufen und selbst zur Legende werden, indem sie (oder er) erklärt: "So etwas Dummes wollen wir kein zweites Mal machen. Wer macht mit?" (anw)