KI-Update Deep-Dive: KI in Waffensystemen

Sollten wir Entscheidungen über Leben und Tod einer Maschine überlassen?

In Pocket speichern vorlesen Druckansicht 9 Kommentare lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 4 Min.

Die Waffenindustrie setzt schon lange künstliche Intelligenz in autonomen Waffensystemen ein. Die bekommen dann im Volksmund gern so Namen wie "Killerdrohnen". Die Politikwissenschaftlerin Dr. Ingvild Bode von der Universität Süddänemark analysiert in ihrem aktuellen Forschungsprojekt zu autonomen Waffensystemen und internationalen Normen die politische Debatte rund um solche "Killerdrohnen". Dabei geht es auch um die Frage der Ethik beim Einsatz waffenfähiger KI: "Nur weil etwas rechtlich möglich ist – oder eben nicht verboten – sollten wir das dann auch machen?"

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bereits seit den 1960er Jahren können wir eine Automatisierung von Waffensystemen beobachten. Die Technologien, die zum Beispiel für Luftabwehrsysteme eingesetzt werden, werden immer komplexer und übernehmen immer mehr Aufgaben. Derzeit werde unter anderem im Krieg in der Ukraine viel sogenannte herumlungernde Munition angewendet, erklärt die Expertin. Das sind Drohnen, die in eine bestimmte Region fliegen, dort zirkulieren und versuchen, Ziele zu entdecken, die in der Datenbank eingespeichert sind. Wenn die Drohne ein mögliches Ziel entdeckt, muss der Mensch nur noch den Abschuss aus der Entfernung freigeben. Die grundsätzliche Frage ist dabei, ob es überhaupt programmierbar ist, zu unterscheiden, wer ist Zivilist und wer Kombatant? "Es gibt Hinweise darauf, dass dies nicht wirklich der Fall ist, weil es eine sehr stark kontextabhängige Entscheidung ist, die menschlicher Deliberation bedarf."

"Bislang scheinen die Hersteller noch eher zurückhaltend und werben für ihre Waffentechnologien damit, dass sie mit dem sogenannten Human in the Loop funktionieren", erklärt Dr. Bode, "selbst wenn es rein technisch möglich wäre, dass diese Systeme komplett autonom agieren könnten." Auch Militärs, mit denen sie im Zuge ihrer Forschung spricht, scheinen noch nicht bereit zu sein, die Kontrolle über das Kriegsgeschehen komplett an eine Maschine abgeben zu wollen.

Dieser stille Konsens, den es in der Waffenindustrie und im Militär bislang zu geben scheint, ist auf der internationalen politischen Ebene schwer in eine Regulierung von KI-Waffen umzusetzen. Erst in dieser Woche haben UNO-Generalsekretär Antonio Guterres und die Präsidentin des Internationalen Komitees vom Roten Kreuz, Mirjana Spoljaric, die Länder der Welt dazu aufgerufen, den Umgang mit autonomen Waffensystemen zu regeln. Momentan gibt es laut UN bisher nicht einmal eine allgemein verbindliche Definition für solche Waffen. Dr. Bode sieht aber gerade das Forum der UN als Chance, für einen Regulierungsprozess. Unter anderem wurde der Atomwaffensperrvertrag dort verhandelt und ratifiziert. Auch das Beispiel Landminen zeige, dass obwohl die USA nach wie vor diesen Vertrag nicht ratifiziert haben, die Landmine selbst als Waffensystem fast ausgestorben ist, seitdem der Vertrag in Kraft getreten ist.

Befürworter von autonomen Waffensystemen führen oft die Möglichkeit, für sehr präzise Angriffe und die Emotionslosigkeit der Drohne als Argument für ihren Einsatz an, nicht zuletzt zum Schutz der eigenen Soldatinnen und Soldaten. Die Wissenschaftlerin gibt jedoch zu bedenken, dass man nie mit 100-prozentiger Sicherheit sagen kann, wie diese Systeme im Einsatz funktionieren. "Die Vorstellung von Technologie als etwas, was objektiv und neutral agieren kann, das überzeugt mich gerade nicht, weil diese Technologie ja immer noch von Menschen programmiert wird. Sie wird auf Basis von Daten trainiert, die aus menschlicher Quelle hervorgegangen sind." Und es sei zwar so, dass kleine Einweg-Drohnen aufgrund der kleineren Sprengköpfe auch geringeren Schaden anrichten könnten. "Aber wenn die Intention bei der einen Konfliktpartei nicht da ist, sich überhaupt in irgendeiner Art und Weise an Regeln des Völkerrechts zu halten, dann würde auch die beste Technik dabei nicht helfen, den Schaden für die Zivilbevölkerung zu minimieren."

(igr)