Killerroboter: Keine Chance für Juristen

Autonom handelnde Maschinen könnten für Kampfeinsätze enorm nützlich sein. Human Rights Watch allerdings fürchtet, dass sie Kriegsverbrechen Vorschub leisten – und fordert ein frühes Komplettverbot.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 5 Min.
Von
  • Sascha Mattke

Autonom handelnde Maschinen könnten für Kampfeinsätze enorm nützlich sein. Human Rights Watch allerdings fürchtet, dass sie Kriegsverbrechen Vorschub leisten – und fordert ein frühes Komplettverbot.

4. September 2009 um 1.50 Uhr morgens nahe der afghanischen Stadt Kunduz: Taliban-Kämpfer haben zwei Tanklastzüge entführt, die mittlerweile von Aufklärungsflugzeugen entdeckt sind – sie stecken auf einer Sandbank im Kunduz-Fluss fest. Oberst Georg Klein, deutscher Kommandeur des Wiederaufbauteams für die Region, fürchtet einen Anschlag mit den vollen Tankfahrzeugen und fordert einen Luftschlag des US-Militärs an. Nach späteren NATO-Berichten kamen dadurch bis zu 142 Menschen ums Leben, darunter viele Zivilisten.

Der Vorfall sorgte für internationales Aufsehen, doch obwohl Klein in der Kommunikation mit den US-Kameraden teils falsche Angaben gemacht hatte, wurde ein Ermittlungsverfahren gegen ihn eingestellt – er habe weder gegen das Völkerstrafgesetzbuch noch gegen das Strafgesetzbuch verstoßen, befand die Bundesanwaltschaft. Ende April dieses Jahres urteilte auch das Oberlandesgericht Köln, die Angehörigen der Getöteten hätten keinen Anspruch auf Schadenersatz.

Für die Betroffenen mag das enttäuschend sein, doch immerhin hatten sie eine Chance, mit ihrem Anliegen vor Gericht zu siegen. Was aber passiert, wenn nicht mehr Menschen über derartige Angriffe entscheiden, sondern autonome Kampfmaschinen? Noch gibt es sie nicht in der Praxis, doch die technische Entwicklung schreitet schnell voran. Die Menschenrechtsorganisation Human Rights Watch hat deshalb im April eine Studie zu dem Thema veröffentlicht und kommt darin zu einer weit reichenden Forderung: Entwicklung, Produktion und Einsatz von vollständig autonomen Waffen sollen international verboten werden.

„Eine autonome Kampfmaschine könnte Handlungen begehen, die als Kriegsverbrechen anzusehen wären, wenn sie von einem Menschen vorgenommen würden, doch die Opfer könnten mit keinerlei Bestrafung dieser Verbrechen rechnen“, erklärt Bonnie Docherty, Waffenforscherin bei Human Rights Watch und Dozentin an der Harvard Law School. Denn zum Einen kann man einer Maschine keine Absicht zuschreiben, zum Anderen ist sie keine natürliche Person und fällt somit bislang nicht unter die Rechtsprechung internationaler Gerichte.

„Verbrechen gegen das Völkerrecht werden von Menschen begangen, nicht von abstrakten Gebilden, und nur indem man die Personen bestraft, die solche Verbrechen begehen, können die Regeln des Völkerrechts durchgesetzt werden“. So lautete einer der Kernsätze des Internationalen Militärgerichtshofs, der nach dem Zweiten Weltkrieg eingerichtet wurde, um deutsche Kriegsverbrechen zu bestrafen. Seit dieser Zeit gilt das Prinzip, dass Personen auch dann verantwortlich gemacht werden können, wenn sie völkerrechtliche Straftaten begehen, die nach dem Recht ihres eigenen Landes zulässig sind.

Kriegsverbrecher müssen also fürchten, zur Rechenschaft gezogen zu werden, was in mehreren Fällen auch geschehen ist. Mit autonomen Kampfmaschinen aber droht diese Abschreckung laut Human Rights Watch jetzt wieder ausgehöhlt zu werden. Die Roboter selbst könnten offensichtlich nicht sinnvoll bestraft werden, und auch bei Entwicklern, Produzenten und sogar Befehlshabern werde eine Bestrafung weitaus schwieriger: Für eine Verurteilung müsse stets absichtsvolles Handeln vorliegen und nachgewiesen werden, bloße Fehler oder Versehen seien völkerrechtlich nicht zu ahnden. Im Zweifelsfall könne „ein Roboter mehrere Verbrechen begehen, bevor irgendein Mensch die Verpflichtung oder auch nur die Möglichkeit hat, ihn zu stoppen“.

Human Rights Watch hält diese Probleme für so gravierend, dass ein vollständiges Verbot die beste Lösung sei. Bloße Einschränkungen seien nicht ausreichend: Wenn die Killerroboter erst einmal Teil des Waffenarsenals eines Landes seien, lasse sich nicht ausschließen, dass sie unter schwierigen Bedingungen auch in nicht zulässigen Situationen eingesetzt würden. So hätten vor dem Verbot von Streubombenmunition auch „allgemein verantwortungsbewusste Armeen“ diese Waffen intensiv in besiedelten Gebieten genutzt.

Darüber hinaus berge die Existenz von autonomen Kampfmaschinen das Risiko, dass diese von repressiven Regimes entgegen der Regeln eingesetzt werden. Ein direktes Verbot dagegen biete weiter gehenden Schutz für Zivilisten und sei leichter durchzusetzen als differenzierte Vorschriften. Es könne eine Stigmatisierung der Technologie erreichen, die auch solche Länder beeinflusst, die einen Sperrvertrag nicht unterschreiben. Und nebenbei löse es auch weitere Probleme mit autonomen Waffen, etwa die allgemeinen moralischen Einwände dagegen und die Gefahr eines Wettrüstens.

Wie die internationalen Verträge zum Verbot von Landminen (aus dem Jahr 1997) und Streumunition (2008) zeigen, sind Staaten durchaus bereit, auf den Einsatz potenziell wirksamer Waffen zu verzichten, wenn zu viele Nachteile für Zivilisten drohen. Im Fall der Kampfroboter allerdings geht es um eine Technologie, die noch nicht einmal existiert, so dass manche ein Verbot für übereilt halten. „Bevor wir die Technologie verbieten, sollten wir sie erst einmal verstehen“, sagt etwa Michael Horowitz, der sich am Center for a New American Security (CNAS) mit dem Thema beschäftigt.

(sma)