ICRC: "Ein Waffensystem ohne menschliche Kontrolle ist von Natur aus rechtswidrig"

Kampfroboter Defender: Bild: USAF

Wissenschaftler und UN diskutieren ein Verbot autonomer Waffen, Google-Mitarbeiter protestieren gegen Mitwirkung an einem militärischen KI-Projekt

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Drohnen, die ihre Ziele selbstständig erfassen und angreifen - wegen der rasanten technologischen Entwicklung im Bereich Künstlicher Intelligenz und Datenverarbeitung könnten solche Szenarien bald möglich werden. Die "Kampagne zum Stopp von Killer-Robotern"warnt seit Jahren davor und auch die Vereinten Nationen diskutierten deswegen diese Woche auf einer Konferenz der Vertragskonferenz für Konventionelle Waffen (Convention on Certain Conventional Weapons - CCW) in Genf, ob ein Verbot sogenannter "Letaler Autonomer Waffensysteme" nötig ist - und wie das überhaupt aussehen könnte.

"Die Zahl derer, die ein Verbot fordern, wächst", berichtet Thomas Küchenmeister von Facing Finance, einer Organisation, die die Finanzierung völkerrechtswidriger Waffen anprangert und Mitglied bei der "Campaign to Stop Killer Robots" ist, gegenüber Telepolis. Allerdings seien die Diskussionen schon nach wenigen Tagen immer technischer geworden, räumt er ein. Küchenmeister ist allerdings optimistisch, dass spätestens auf dem nächsten Treffen im August Bewegung in die Verhandlungen kommt. "Man spürt, dass viele Länder, die an echten Verhandlungen interessiert sind, sich bewegen", sagt er. "Die Staaten, die sich verweigern, müssen darauf reagieren."

Schwieriges Verbot

Dabei ist das Hauptproblem noch längst nicht geklärt: Was soll eigentlich genau verboten werden? Für die Nichtregierungsorganisationen, die ein Verbot von Killer-Robotern fordern, hat das Internationale Komitee des Roten Kreuzes (ICRC) einen Definitionsvorschlag gemacht. Verboten werden sollen demnach solche Waffensysteme, die in ihren kritischen Funktionen autonom sind: "Aus Sicht des ICRC ist ein Waffensystem ohne menschliche Kontrolle von Natur aus rechtswidrig."

Autonome Waffensysteme könnten und dürften nicht zwischen Zivilisten und Militärs unterscheiden, argumentiert Thomas Küchenmeister. "Wir brauchen neue Regeln, damit das Völkerrecht beachtet und Tötungsentscheidungen nicht an Maschinen delegiert werden." In Genf warb Noel Sharkey (Man kann eine Maschine nicht bestrafen), Professor für künstliche Intelligenz und Robotik an der Universität Sheffield, für ein Verbot von Waffen, die in Lage sind, ohne menschliche Kontrolle zu agieren: "Die Kontrolle passiert über den Aufbau, der durch internationale Waffengesetze vorgeschrieben wird."

Doch ob es überhaupt ein eigenes Verbot für autonome Waffensysteme braucht, ist umstritten. Die Gegenposition ist, dass das bestehende Kriegsvölkerrecht auch auf neue Waffensysteme angewendet werden kann und damit völlig ausreichend ist. Entsprechend unterscheiden sich die Vorschläge, die die verschiedenen Länder und NGO-Experten in Genf vorgelegt haben. So schlägt etwa Belgien vor, Letale Autonome Waffensysteme als solche zu definieren, die ohne menschliches Zutun Ziele auswählen und bekämpfen. Frankreich dagegen will Waffen ausnehmen, die letztlich von Menschen betrieben werden, und nur solche regulieren, die bei "völliger Abwesenheit" von Menschen funktionieren. Polen wiederum will allgemein "menschliche Kontrolle über Waffensysteme und ihren Einsatz" sicherstellen.

Kampfdrohnen weltweit (13 Bilder)

MQ-1A "Predator" auf der Ali Base im Irak. Bild: U.S. Air Force

Es gibt aber auch Länder, die internationalen Regulierungen grundsätzlich skeptisch bis ablehnend gegenüber stehen. Russland spricht sich wegen "des hohes Grades an Effizienz" deutlich für automatisierte bzw. autonome Waffen aus. Jeder Staat müsse dafür seine eigenen Regeln finden, universale Regeln würden "kaum zu praktischen Ergebnissen führen". Letztlich müssen solche Waffen aber von Menschen kontrolliert werden, räumt auch Moskau ein.

Auch die USA verweisen auf ihre bereits existierenden Drohnensysteme und sehen einen "menschlichen Betreiber" als ausreichend an. Juristisch entscheidend sei, "wie Menschen diese Waffen benutzen und was sie erwarten, was diese bewirken". Dementsprechend lehnt Washington alle Versuche, die Waffensysteme selbst genau zu definieren, als überflüssig ab.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.