Meinung: Kalte Entscheidung

Immer mehr Wissenschaftler fordern ein Verbot von autonomen Waffensystemen. Aber sind in Kriegen wirklich die Maschinen das Problem – oder doch eher die Menschen?

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 4 Min.

Immer mehr Wissenschaftler fordern ein Verbot von autonomen Waffensystemen. Aber sind in Kriegen wirklich die Maschinen das Problem – oder doch eher die Menschen?

Rund 19.000 Wissenschaftler und Unternehmer haben in einem offenen Brief gefordert, die Forschung an autonomen Angriffswaffen – wie etwa bewaffneten Robotern und Drohnen – zu ächten. In der langen Liste finden sich so prominente Namen wie der Apple-Mitbegründer Steve Wozniak, der Leiter der KI-Forschung von Google, Peter Norvig, der Astrophysiker Stephen Hawking und der Unternehmer Elon Musk.

Besonders Musk und Hawking hatten sich in Interviews und Artikeln in letzter Zeit wiederholt besorgt gezeigt, eine wild gewordene künstliche Intelligenz könnte aus dem Ruder laufen und die Menschheit unterjochen. Aber die versammelten Unterzeichner treibt weniger die Angst vor solch einem Terminator-Szenario um. Sie befürchten vielmehr einen Rüstungswettlauf, der schließlich dazu führt, dass autonome Waffen zur "Kalaschnikow des 21. Jahrhunderts" werden: billig, robust, schnell zu produzieren. Die ideale Waffe auch für Diktatoren und Terroristen – immer einsatzbereit und vollkommen skrupellos.

Aber ist es wirklich besser, das Handwerk des Tötens ausschließlich Menschen zu überlassen? Wahllos vergrabene Tretminen, das Massaker von My Lai im Vietnamkrieg, Giftgasattacken auf syrische Zivilisten – kann eine Maschine grausamer sein? Hätte eine Maschine, unemotional logisch programmiert, zum Beispiel die zweite Atombombe auf Japan abgeworfen? Sie vernichtete geschätzt 70000 Menschen, ein Großteil davon Zivilisten, obwohl Japan wenige Tage zuvor bereits von einer ersten Atombombe getroffen worden war.

Schon lange debattieren Historiker darüber, ob Japan auch so kapituliert hätte. Eine neue Dokumentation des Filmemachers Klaus Scherer präsentiert zum 70. Jubiläum des Atombombenabwurfs neue Antworten zu dieser Frage: Während in Hiroshima eine Uranbombe auf ihre "Praxistauglichkeit" getestet wurde, kam in Nagasaki eine Plutoniumbombe zum Einsatz. Auch diese Technologie musste getestet werden. Hätte es neben der Uranbombe von Hiroshima und der Plutoniumbombe von Nagasaki noch ein Thorium-Modell gegeben, zitiert Scherer den Historiker Peter Kuznik, wäre wohl noch eine dritte Stadt vernichtet worden. Das klingt kalt – aber logisch. Hätte also auch eine Maschine zu diesem Schluss kommen können? Nein, widerspricht Ronald Arkin, Robotikforscher am Georgia Institute of Technology. Anders als viele seiner Kollegen lehnt Arkin die prinzipielle Zusammenarbeit mit dem Militär nicht ab, forscht seit Jahren zur "Ethik bewaffneter Roboter".

Die Entscheidungen von Menschen auf dem Schlachtfeld sind oftmals von Angst, Panik oder Wut diktiert, argumentiert Arkin und zitiert interne Untersuchungen des US-Militärs. Demnach war 2006 nur knapp die Hälfte der befragten Soldaten der Meinung, unbeteiligte Zivilisten sollten mit Würde und Respekt behandelt werden. 17 Prozent der Befragten meinten gar, alle Zivilisten in Kriegsgebieten wie dem Irak sollten wie "Aufständische" behandelt werden. Und ein Drittel der befragten Soldaten fand, es sei in Ordnung, Kriegsgefangene zu foltern, wenn man so das Leben von Kameraden retten kann.

Dass Arkin der Meinung ist, in solch einer Situation könnten kalt logische Maschinen helfen, die Anzahl der zivilen Opfer zu minimieren, klingt nach diesen Fakten schon weniger fantastisch. Politisch wäre das Problem allerdings vertrackter. Zum einen müssten Staaten beziehungsweise Hersteller bewaffneter Systeme sich damit einverstanden erklären, solch ein Ethikmodul zu installieren. Aber solch ein Algorithmus wäre mit großer Sicherheit nicht offen einsehbar. Ein geschickter Programmierer könnte tief im System verstecken, dass das Leben ausländischer Zivilisten geringer gewichtet wird als jenes der eigenen Soldaten. Und schon würde der Roboter nach außen hin "ethisch funktionieren", wäre aber trotzdem eine grausame Waffe.

Wer also eine Ächtung militärischer KI fordert, hat im Prinzip recht – geht aber nicht weit genug. Denn das eigentliche Problem sind nicht die bewaffneten Maschinen. Das Problem sind die Menschen. Egal ob sie selbst schießen oder Maschinen schießen lassen. Die Forderung nach einem Verbot autonomer Waffen ist nichts anderes als eine Variante des Glaubens, es gäbe eine humane Form des Krieges.

Stieler, TR-Redakteur, begrüßt die Diskussion um die ethischen Folgen der KI-Forschung. Sie geht ihm aber nicht weit genug. (wst)