Autonome Waffen: Bundestag will Killer-Roboter vorerst nicht ächten

Die Abgeordneten stimmten gegen Anträge der Linken und der Grünen, wonach die Bundesregierung ein Moratorium für autonome Waffensysteme erklären sollte.

In Pocket speichern vorlesen Druckansicht 132 Kommentare lesen
Autonome Waffen: Bundestag will Killer-Roboter vorerst nicht ächten

(Bild: Shutterstock/Usa-Pyon)

Lesezeit: 3 Min.

Mit großer Mehrheit hat der Bundestag am Freitag einen Antrag der Grünen abgelehnt, laut dem sich die Bundesregierung "für eine völkerrechtliche Ächtung autonomer Waffensysteme" und auf UN-Ebene für ein Verbot der Technik starkmachen sollte. "Eine Entwicklung, die dazu führt, dass Waffen selbständig Ziele erkennen und diese bekämpfen, ohne dass ein Mensch noch eingreifen kann, muss unbedingt verhindert werden", forderten die Grünen.

Für den Grünen-Antrag stimmte mit den Grünen aber nur die Linke. Laut einem zweiten Antrag der Grünen sollte sich das Parlament klar dagegen aussprechen, letale autonome Waffensysteme über den EU-Verteidigungsfonds zu fördern. Diesen unterstützte zusätzlich auch die AfD, die FDP enthielt sich.

Die Grünen enthielten sich wiederum bei einem Antrag der Linken , demzufolge die Bundesregierung einseitig ein Moratorium für Killer-Roboter erklären und ein völkerrechtliches Verbot auf den Weg bringen sollte. Die Regierungsfraktionen, die AfD und die FDP waren dagegen. Die Gruppe "KI und Staat" der Enquete-Kommission des Bundestags für Künstliche Intelligenz hatte dagegen im Dezember einen Konsens erzielt, dass tödliche autonome Waffensysteme international geächtet werden sollten. Dieses Ziel ist auch im Koalitionsvertrag genannt.

Konfliktsituationen könnten eskalieren, wenn es keine ausreichende menschliche Kontrolle in kriegerischen Auseinandersetzungen mehr geben, warnte Katja Keul von den Grünen in der Aussprache. IT-Konzerne mit ihren Algorithmen entschieden verstärkt mit über Leben und Tod. Der Rüstungswettlauf um das technisch Machbare brauche dringend Regeln. In den Verhandlungen dazu in Genf dürfe sich Deutschland nicht auf den kleinsten gemeinsamen Nenner einlassen.

"Maschinen töten Menschen, massenhaft und effizient", sagte Kathrin Vogler von den Linken. Diese Entwicklung, die etwa die USA, Russland oder China vorantrieben, müsse umgehend gestoppt werden. Unverbindliche Erklärungen nützten hier nichts.

Gisela Manderla hielt im Namen der CDU/CSU dagegen, ein breites Fähigkeitsspektrum und die Möglichkeit, flexibel auf Bedrohungen reagieren zu können, seien unerlässlich. Auch die Forschung rund um Künstliche Intelligenz im militärischen Bereich dürfe nicht pauschal eingeschränkt werden, es müsse international reguliert werden.

Es sei "furchterregend", was Killer-Roboter anrichten könnten, räumte Karl-Heinz Brunner von der SPD-Fraktion ein. Eine Maschine dürfe kein Todesurteil vollstrecken, ohne das anderer Mensch verantwortlich gemacht werden könne. Es müsse Deutschland zwar gelingen, letale autonome Waffensysteme zu ächten, der vorgeschlagene Weg "German First" sei aber nicht zielführend. Bundesaußenminister Heiko Maas (SPD) sei bereits unterwegs, um hier Fortschritte zu erzielen. Dabei dürften keine Türen zugeschlagen werden. (anw)