Was ist besser daran, wenn nicht autonome Maschinen, sondern Menschen Waffen bedienen?

Leopardo B. Bild: Ordercrazy/gemeinfrei

Wieder einmal versuchte US-Verteidigungsminister Carter zu verschleiern, worauf die vom Pentagon forcierte Entwicklung autonomer Systeme hinauslaufen wird

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Autonome Robotersysteme, die mit Waffen ausgerüstet sind und selbst über deren Anwendung entscheiden könnten, sind offenbar doch ein wichtiges Thema, das mit Ängsten einhergeht. Während das Pentagon - und andere Staaten - zwar bereits seit vielen Jahren Kampfroboter in Form von Drohnen, aber auch ihre Ziele suchende smarte Raketen einsetzen, scheint der Übergang von der Fernsteuerung durch Menschen zu autonom entscheidenden Robotern die Menschen mehr zu beunruhigen. Für die Opfer der Drohnenkriege, zumal wenn es sich um Zivilisten handelt, dürfte es hingegen ziemlich egal sein, ob letztlich ein vielleicht Tausende von Kilometern entfernt befindlicher Mensch die Waffe auslöst oder die Maschine selbst.

Wieder wie schon Ende September (US-Verteidigungsminister: "Niemals" volle Autonomie für Kampfroboter) versicherte nun US-Verteidigungsminister Ash Carter vergangenen Freitag, dass das Pentagon "niemals" Kampfroboter verwenden würde, die selbst entscheiden, wann sie töten. Wenn jemand ausgerechnet in Bezug auf Rüstung und Krieg von einem Niemals spricht, ist nicht nur höchste Skepsis geboten, sondern man muss sich auch wundern, warum der Verteidigungsminister der Meinung zu sein scheint, dass seine Äußerung überhaupt für glaubwürdig gehalten werden könnte. Wie könnte er allein schon dafür garantieren, dass künftige Regierungen und Verteidigungsminister sich doch anders entscheiden? Schon immer haben sich Militärs und Kriegsstrategen nicht zurückgehalten, neue Waffentechnik, die Überlegenheit verspricht, auch anzuwenden - und sei es nur zur Demonstration von deren Wirkung zur Abschreckung.

Immerhin waren die USA das bislang erste und einzige Land, die wahrscheinlich nicht einmal kriegsentscheidend die nukleare Massenvernichtungswaffe völlig ungerichtet und mit der Absicht, eine Maximalzahl an Toten und Verletzten zu erreichen, auf die Bevölkerung von zwei Großstädten richteten. Mehr als 200.000 Menschen wurden sofort von den beiden Atombomben getötet, an den Folgen starben Zehntausende weitere. Was wäre im Vergleich dazu etwa eine Drohne, die eine Hellfire-Rakete auf mutmaßliche Gegner abfeuert? Und was macht es besser, wenn ein Mensch den Knopf drückt, von dem weniger zu erwarten ist, dass er bestimmte Vorschriften einhält, als wenn eine programmierte Maschine dies macht.

Warum scheint die Welt eher in Ordnung zu sein, wenn Menschen, die bis jetzt Völker- und Massenmorde begehen, systematisch foltern und vergewaltigen, rücksichtlos oder auch emotionsgetrieben Mitmenschen töten und verletzen, über den Einsatz einer Waffe entscheiden, als wenn dies Maschinen machen, die letztlich auch nur die finale Form eines Soldaten sind, der wie eine mehr oder weniger intelligente Maschine Befehlen gehorchen soll? Nun könnte man sagen, dass dann, wenn Menschen verantwortlich sind, diese auch zur Rechenschaft gezogen werden können, während dies bei Maschinen möglicherweise schwieriger sein könnte. Aber wie man auch gegenwärtig sieht, werden Kriegsverbrechen kaum jemals verfolgt.