Internationale Debatte über Kampfroboter-Einsätze gefordert

Kampfdrohnen sollen nach Plänen des US-Militärs künftig selbst Entscheidungen über Leben und Tod treffen. Eine höchst gefährliche Entwicklung, meint der britische Robotik-Experte Noel Sharkey und fordert eine internationale Diskussion zu dem Thema.

In Pocket speichern vorlesen Druckansicht 298 Kommentare lesen
Lesezeit: 3 Min.
Von
  • Peter-Michael Ziegler

UAV vom Typ Global Hawk

(Bild: Northrop Grumman)

Rund 50 Angriffe auf al-Qaida-Angehörige und andere feindliche Kräfte hat die US-Armee mit Hilfe von Flugdrohnen allein in den vergangenen zwölf Monaten im Grenzgebiet zwischen Afghanistan und Pakistan durchgeführt. Zu den jüngsten Opfern gehört Medienberichten zufolge offenbar auch ein Sohn des al-Qaida-Anführers Osama Bin Laden, der zwar nicht selbst Ziel eines Angriffes war, sich aber in der Nähe einschlagender Raketen aufgehalten haben soll. Über die Zahl ziviler Opfer bei Drohnen-Angriffen ist nur wenig bekannt. Unbestätigten Quellen zufolge sollen auf 14 getötete al-Qaida-Mitglieder aber fast 700 zivile Todesopfer kommen.

Bei den Streitkräften sind solche Unmanned Aerial Vehicles (UAVs) höchst populär, weil sich die Gefährdung der eigenen Soldaten auf ein Minimum reduzieren lässt: Erkundung, Überwachung, Angriff – für jedes Einsatzziel stehen inzwischen spezielle Maschinen zur Verfügung, die teilweise Tage in der Luft bleiben und schnell große Distanzen zurücklegen können. Und auch für den Bodeneinsatz werden zunehmend Kampfroboter konstruiert und eingesetzt, die im schlimmsten Fall als Haufen Schrott enden – nicht aber im Bodybag nach Hause transportiert werden müssen.

Werden solche mit Kameras und verschiedensten Sensoriksystemen ausgestatteten Kampfmaschinen bislang noch meist ferngesteuert und die an Bord befindlichen Waffensysteme über entfernte Kommandozentralen bedient, soll die Zukunft völlig anders aussehen, wie sich dem im Juli 2009 veröffentlichten Strategieplan "Unmanned Aircraft Systems Flight Plan 2009-2047" der United States Air Force entnehmen lässt: "Full Autonomy", "Artificial Intelligence", "Execute Complex Decisions", "Automated Target Engagement", "Decision Making Power" lauten die Schlagwörter der Kriegsführung von morgen.

"Roboter sollen künftig selbst entscheiden können, wer wann wo getötet wird", fasst der Robotik-Experte Noel Sharkey von der Universität Sheffield die Entwicklung zusammen. "Und das alles auf der Basis einer künstlichen Intelligenz, die sich das Militär offenbar bei Science-Fiction-Filmen abgeguckt hat." Roboter sind Sharkeys Auffassung zufolge längst noch nicht so weit, dass man sie wenigstens als dumm bezeichnen könnte: "Sie können keine Unterscheidung zwischen Zivilisten und Nicht-Zivilisten treffen und sie beherrschen auch nicht die Verhältnismäßigkeit beim Einsatz von Kampfmitteln."

Weil sich die Art der Kriegsführung bald dramatisch ändern könnte, fordert Robotik-Professor Sharkey nun den Beginn einer internationalen Diskussion, bevor weiter in die Entwicklung autonom agierender Killermaschinen investiert wird. Den Amerikanern hält er zugute, dass sie in dem UAV-Strategieplan zumindest darauf hinweisen, dass die neue Technik auch erhebliche Probleme mit sich bringen könnte. "Bevor eine Maschine autorisiert werden kann, im Kampfeinsatz Entscheidungen über Leben und Tod zu treffen, müssen politische und militärische Führer zunächst die damit zusammenhängenden juristischen und ethischen Fragen klären", heißt es in dem Strategieplan – genug Stoff also für eine angeregte Diskussion. (pmz)