Können Roboter den Krieg humanisieren?

Die Optimierung der Gewalt

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

"Waffen sind stets ethisch neutral." Mit diesem Satz könnte es Thomas de Mazière trotz seiner vergleichsweise kurzen Amtsperiode von knapp drei Jahren als deutscher Verteidigungsminister in die Geschichtsbücher geschafft haben. Zwar nahm er diese gewagte Behauptung vom August 2012 schon wenige Wochen später wieder zurück, bleibt damit aber dennoch der erste hochrangige Politiker, der sich bei der Diskussion über den militärischen Einsatz von Robotern aus der Deckung gewagt hat. Jahrelang galt für Bundeswehr und Verteidigungsministerium die Anweisung, über Roboter und insbesondere deren Bewaffnung in der Öffentlichkeit möglichst gar nicht zu reden. Da war es schon ein erheblicher Fortschritt, als de Mazière klipp und klar erklärte, dass er "zwischen Drohnen und Flugzeugen keinen Unterschied" sehe.

Mit dieser Einschätzung - die er bislang nicht zurückgenommen hat - steht er nicht allein. Im Zusammenhang mit Militärrobotern wird häufig auf eine vermeintliche Kontinuität der Entwicklung verwiesen. Eigentlich ändere sich doch gar nicht viel, argumentieren insbesondere Vertreter von Politik, Industrie und Militär. Es vergrößere sich lediglich die Distanz, aus der getötet wird. Dadurch würden die eigenen Soldaten aus der Schusslinie genommen und die Verluste auf der eigenen Seite reduziert. Und selbstverständlich werde immer ein Mensch die letzte Entscheidung über den Einsatz tödlicher Waffen haben. Niemand wolle autonom feuernde Kampfmaschinen.

Tödliche Autonomie ist unausweichlich

Nun hat allerdings die Vergrößerung der Distanz, aus der die Angriffe gesteuert werden, schon jetzt zu einer völlig neuen Kriegserfahrung geführt. In den Krieg zu ziehen hat in den vergangenen Jahrtausenden stets bedeutet, die Heimat zu verlassen und sich unter Lebensgefahr aufs Schlachtfeld zu begeben. Der Bediener einer Drohne dagegen kann zu Hause bleiben. Die Anwendung tödlicher Gewalt wird für ihn zu einer Aufgabe mit geregelten Arbeitszeiten, die er ohne persönliches Risiko bewältigen kann, um anschließend zu seiner Familie zurückzukehren und den Kindern bei den Schulaufgaben zu helfen. Töten als Job wie jeder andere - wie sich dieser Status auf Dauer psychologisch und kulturell auswirkt, lässt sich bislang nicht absehen.

Absehbar ist dagegen, dass die Arbeit des Drohnenoperators nicht so risikoarm bleiben wird wie heute. Völkerrechtlich gilt er als Kombattant und ist damit ein legitimes Ziel für die Gegenseite. Wenn bei einem Angriff auf ihn auch seine Familie getötet wird, wäre das demnach kein terroristischer Anschlag, sondern ein kriegerischer Akt mit Kollateralschaden. Die damit zusammenhängenden Fragen werden zukünftig sicherlich noch viele Gerichte beschäftigen.

Zwischen dem Bediener einer Drohne und etwa einem Scharfschützen, der sein Ziel aus einem Kilometer Entfernung anvisiert, gibt es noch einen weiteren Unterschied. Der Scharfschütze sieht sein Ziel durch ein optisches System, das die Bildinformationen auf eine ihm bekannte, stets gleiche und nachvollziehbare Weise verändert. Wer ohne direkte Sicht feuert, verlässt sich dagegen auf die Elektronik einer Drohne, die sich zunächst selbst ein Bild macht und es dann übermittelt.

Das mag zunächst unproblematisch erscheinen, weil wir durch Fernsehübertragungen seit Langem daran gewöhnt sind, uns auf Kamerabilder zu verlassen. Doch ein Teil der Verantwortung für die Entscheidung über Angriff oder nicht liegt damit bereits beim technischen System. Wer der Drohne ein bewegliches Ziel vorgibt, etwa ein fahrendes Auto, das sie automatisch verfolgen soll, übergibt ihr noch mehr Verantwortung. Zwar kann der Operator die Aktionen am Monitor mitverfolgen und notfalls abbrechen. Aber wird das immer rechtzeitig möglich sein?

Die Befehle erreichen die Drohne schon im Normalbetrieb mit Verzögerungen im Sekundenbereich, bei gestörter Funkverbindung dauert es noch länger. Wie lange genau, gehört zu den besser gehüteten Militärgeheimnissen. Aber wir dürfen davon ausgehen, dass die Zeit knapp wird, wenn die Drohne während eines Angriffs durch ein kreuzendes oder überholendes Fahrzeug irritiert werden sollte und plötzlich das falsche Ziel angreift. Durch den Einsatz ferngelenkter Drohnen vergrößert sich daher nicht nur die Entfernung zwischen Schütze und Ziel, es verlagert sich auch ein Teil der Verantwortung auf die Maschine.

Anders als an Bord eines bemannten Kampfjets, wo der Auslöser der Bordwaffen durch eine Scheibe vor versehentlichen Berührungen abgeschirmt werden kann, gibt es bei Drohnen keine derartige Sicherheitshardware. Deren Waffen werden per Funkbefehl ausgelöst. Aber welchen Charakter hat dieser Feuerbefehl? Entspricht er eher dem Kommando an eine Kampfeinheit oder eher dem Betätigen des Abzugs? Der Übergang zwischen militärischer Kommandostruktur und Programmcode verwischt sich: Ob wirklich der Mensch schießt oder nicht doch der Roboter auf Befehl des Menschen, lässt sich immer schwieriger auseinanderhalten. Hinzu kommt, dass der Feuerbefehl zumindest zum Teil auf den vom Roboter übermittelten Informationen beruht.

Selbst wenn Roboter heute noch weitgehend ferngesteuert werden, übernehmen sie daher bereits Verantwortung fürs Töten. Der Anteil an dieser Verantwortung wird unvermeidlich zunehmen, sofern sie nicht unverzüglich entwaffnet werden - bis hin zum Roboter, der autonom über Leben und Tod entscheidet.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.