zurück zum Artikel

Killer-Roboter: Wettrüsten bei autonomen Waffensystemen "erfordert internationalen Ächtungsvertrag"

Stefan Krempl
Killer-Roboter: Wettrüsten bei autonomen Waffensystemen

Drohne MQ-9 Reaper, bewaffnet mit lasergesteuerten Bomben und Hellfire-Raketen. Neue Generationen von Cruise MIssiles sollen stärker automatisiert werden.

(Bild: US Air Force)

Noel Sharkey, Sprecher der Kampagne "Stop Killer Robots", mahnt zur Eile bei dem Bann autonomer Waffensysteme. Die Position Berlins sei nicht hilfreich.

Schwer enttäuscht über die zögerliche Position der Bundesregierung in den Genfer Gesprächen über ein Verbot vollständig autonomer Waffensysteme hat sich der Sprecher der internationalen Kampagne "Stop Killer Robots", Noel Sharkey, gezeigt. "Wenn Deutschland führte, würden viele Staaten folgen", erklärte der emeritierte Professor für Künstliche Intelligenz (KI) und Robotik an der Universität Sheffield bei einer Diskussionsrunde der Heinrich-Böll-Stiftung in Berlin. Aktuell spiele die Bundesregierung mit "rein symbolischen" Vorschlägen aber auf Zeit.

"Wir haben 28 Staaten an Bord", freute sich Sharkey über die Unterstützer der Initiative im Rahmen der Verhandlungen der Gruppe der Regierungsexperten der Genfer Waffenkonvention [1] (CCW). Sogar China als "Supermacht" sei für ein Verbot des Einsatzes von Killer-Robotern, wenn auch nicht für einen Entwicklungsstopp. Österreich sei "führend". Deutschland gehöre aber leider nicht zu den Unterstützern.

Die Bundesregierung und Frankreich setzen in Genf auf eine "politische Erklärung" und einen späteren Verhaltenskodex [2], um das angelaufene Wettrüsten rund um autonome Waffen einzuschränken. Ein solcher Ansatz "habe keine juristischen Zähne" und sei im Unterschied zu einem bindenden völkerrechtlichen Vertrag nicht durchsetzbar, kritisierte Sharkey. Ein präventiver Bann sei "wirklich dringend", da verschiedene Akteure rund um die Uhr an Killer-Robotern arbeiteten.

Schon mit dem bestehenden internationalen Kriegs- und Völkerrecht seien die Systeme gar nicht in Einklang zu bringen, meint Noel Sharkey (ganz links). Die weiteren Teilnehmer an der Diskussion (v.l.n.r.): Agnieszka Brugger, Moderator Giorgio Franceschini, Rüdiger Bohn und Hans Uszkoreit.

Schon mit dem bestehenden internationalen Kriegs- und Völkerrecht seien die Systeme gar nicht in Einklang zu bringen, meint Noel Sharkey (ganz links). Die weiteren Teilnehmer an der Diskussion (v.l.n.r.): Agnieszka Brugger, Moderator Giorgio Franceschini, Rüdiger Bohn und Hans Uszkoreit.

(Bild: heise online / Stefan Krempl)

Die Grundlagen dafür sieht der Informatiker mit Systemen wie dem autonomen Militärfahrzeug Crusher [3] der USA oder dem in den Startlöchern stehenden russischen "Superpanzer" Armata T-14 [4] bereits gelegt. Letzterer könne zwar zunächst "nur" ferngesteuert werden, solle aber komplett autonom werden. Offiziell heiße es zwar in Moskau, dass man keine solchen Systeme entwickle. Der Militärausrüster Kalaschnikow kündige aber ständig eine selbstfeuernde, mit einem neuronalen Netzwerk aufwartende Schießanlage an. Im März solle die Waffe nun auf den Markt kommen.

Mehr Infos

Auch Israel arbeite etwa mit dem "Radarkiller" Harpy an autonomen Systemen für kriegerische Auseinandersetzungen, berichtete Sharkey. Chinas Drohne "Unsichtbares Schwert" gehe ebenfalls in diese Richtung. Irreführend sei die Vorstellung von einem humanoiden Terminator. Es handle sich derzeit vor allem um "konventionelle Waffen", die mit KI gepaart würden. Das Pentagon setze so etwa auch auf autonome U-Boot-Jäger und wolle gängige Cruise Missiles mit dem weiter automatisierten Raketensystem X-47B austauschen. Deutschland selbst lasse sich etwa mit dem Flugabwehrwaffensystem Mantis bei der Bundeswehr [8] Hintertüren für autonome Feuersalven offen.

Die Probleme mit der Technik liegen laut dem Computerwissenschaftler auf der Hand. Damit einher gehe eine völlige Überfrachtung der verwendeten Software, die in der Regel – genauso wie die zugehörige Hardware – "Schrott" sei. Schon mit dem bestehenden internationalen Kriegs- und Völkerrecht seien die Systeme gar nicht in Einklang zu bringen. Die von der Genfer Konvention geforderte Verhältnismäßigkeit beim Auswahl der Mittel etwa "ist nicht berechenbar".

Man könne nicht mal testen, wie sich eine autonome Waffe auswirke. rügte Sharkey: "Es gibt dafür in der Informatik keine Methode." Die Idee des US-Verteidigungsministeriums, dass solche Systeme mit "unvorhersehbaren Situationen auf dem Schlachtfeld" fertig werden könnten, sei daher Humbug. Völlig überfordert sei KI zudem damit, zwischen Kombattanten und Zivilisten zu unterscheiden. Auch die Zurechnungsfähigkeit stehe in den Sternen: Verantwortlich machen könne man eher noch die Politiker, die so einen Schund erlaubten, als die Entwickler oder Kommandeure.

"Von einer Maschine getötet zu werden, ist absolut menschenunwürdig", zitierte der Aktivist zudem den US-Generalmajor a.D. Robert Latiff. Hierzulande wäre der Einsatz von Killer-Robotern damit klar verfassungswidrig, da Artikel 1 Grundgesetz die Menschenwürde unterstreiche. "Sehr angsteinflößend" sei auch die mit autonomen Waffensystemen einhergehende beschleunigte Kampfführung. Angesichts der anhaltenden "Militarisierung der zivilen Welt" würden derlei Instrumente ferner rasch von der Polizei für staatliche Repressionen eingesetzt.

Agnieszka Brugger, Vize-Fraktionsvorsitzende der Grünen in Bundestag, schlug sich voll und ganz auf die Seite des Briten. Nötig sei ein internationalen Ächtungsvertrag, kein weiter verschleppter Definitions- und Verhandlungsprozess. Vermutlich bringe nur der "Weg der maximalen Eskalation" Fortschritte ähnlich wie beim Bann von Bodenminen, denen sich die USA praktisch auch erst im Nachhinein angeschlossen hätten. Die Entwicklung müsse eingehegt werden, "bevor die Katastrophe da ist". Die Maschine allein dürfe keine Ziele auswählen oder Waffen einsetzen. Den gesunden Menschenverstand könne man in diesem Sektor nicht hoch genug schätzen.

Die Oppositionspolitikerin erinnerte Schwarz-Rot zudem an den Koalitionsvertrag, wonach CDU/CSU und SPD autonome Waffensysteme, "die der Verfügung des Menschen entzogen sind", ablehnen und ächten wollten. Besonders verheerend sei es da, dass die Regierungsfraktionen nicht einmal einen Antrag aufgreifen wollten, wonach solche Techniken nicht mit öffentlichen Geldern über den neuen EU-Verteidigungsfonds [9] gefördert werden dürften.

"Wir unterscheiden uns eigentlich nicht in der Zielsetzung", beteuerte der stellvertretende Beauftragte für Rüstungskontrolle im Auswärtigen Amt, Rüdiger Bohn. Anders sei allein der taktische Ansatz. So wollten Deutschland und Frankreich es mit ihrem schrittweisen Vorgehen führenden Industrieländern wie den USA, Russland oder Israel einfacher machen, sich einzubringen. Im Genfer Prozess sei auch schon einstimmig ein Abschlussbericht verabschiedet worden, wonach es autonome Waffen nicht geben darf, wenn Menschen nicht dafür verantwortlich sind. China vertrete zudem eine "ambivalente Position", da es ein Verbot an Bedingungen knüpfe.

Auch im Reich der Mitte werde über soziale Auswirkungen von KI und ethische Fragen geredet, ergänzte Hans Uszkoreit vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Dann werde aber "trotzdem alles gemacht". Zum Schluss gewinne immer der Pragmatismus. In China "erwartet man Wunderdinge von der KI", meint der derzeit vor allem in Peking tätige Wissenschaftler. Das Land wolle sich damit "weit vor alle anderen katapultieren". Mit einem Bann für Killer-Roboter ist es für Uszkoreit auch nicht getan, da sonst die Tendenz da sei, der Maschine gerade im Eifer des Gefechts doch die Kontrolle zu übergeben. Die KI müsste also mit dafür sorgen oder dokumentieren, "inwieweit Menschen und ihr Verstand überhaupt eingesetzt wurden". (jk [10])


URL dieses Artikels:
https://www.heise.de/-4286211

Links in diesem Artikel:
[1] https://www.heise.de/news/Killerroboter-auf-dem-Vormarsch-Diplomaten-feilschen-um-Kontrolle-4145772.html
[2] https://www.heise.de/news/Autonome-Waffen-Bundesregierung-spricht-sich-bedingt-gegen-Wettruesten-mit-smarten-Waffen-aus-4029629.html
[3] https://en.wikipedia.org/wiki/Crusher_(robot)
[4] https://de.wikipedia.org/wiki/T-14
[5] https://www.heise.de/news/UN-Generalsekretaer-Autonome-Waffen-sind-moralisch-verwerflich-4173953.html
[6] https://www.heise.de/hintergrund/Missing-Link-Erfolglose-Gespraeche-ueber-Killerroboter-Wir-muessen-mehr-machen-4157480.html
[7] https://www.heise.de/news/Kein-Konsens-ueber-Umgang-mit-Killerrobotern-4152034.html
[8] https://militaryleak.com/2018/11/03/nbs-mantis-air-defence-system/
[9] https://www.heise.de/news/Verteidigungsfonds-EU-Kommission-will-mehr-Geld-fuer-Drohnen-und-Cybersicherheit-mobilisieren-3527711.html
[10] mailto:jk@heise.de