Autonome Waffen mit KI: Auf dem Weg zur "Schlachtfeld-Singularität"

Können mit Künstlicher Intelligenz bestückte Torpedos, Drohnen oder Marschflugkörper noch verhindert werden? China habe sich in Genf zumindest gegen eine "Nutzung" solcher Systeme ausgesprochen, hieß es im "Clausewitz-Strategiegespräch".

In Pocket speichern vorlesen Druckansicht 190 Kommentare lesen
Autonome Waffen mit KI: Auf dem Weg zur "Schlachtfeld-Singularität"

(Bild: Future Army / US Marines (Screenshot YouTube))

Lesezeit: 5 Min.
Inhaltsverzeichnis

Autonomie in Waffensystemen gebe es längst etwa im Raketenabwehrsystem Patriot, befand Frank Sauer vom Institut für Politikwissenschaften an der Universität der Bundeswehr in München am Mittwoch auf dem "12. Clausewitz-Strategiegespräch" in Berlin. Es müsse nun aber dringend darum gehen, ethische rote Linien in die Technik einzuziehen. Sonst komme die Menschheit mit der zunehmenden Entscheidungsgeschwindigkeit sich selbst steuernder Systeme "in Teufels Küche". Diese Problematik könnte etwa im Südpazifik besonders virulent werden, wenn sich dort "Wechselwirkungen zwischen zwei Algorithmen" in Systemen der USA und Chinas ergäben, die sich gegenseitig belauerten.

In einem solchen Horrorszenario in einem Kalten Krieg zwischen Künstlichen Intelligenzen (KI) könne das gesamte politische System destabilisiert werden, meinte Sauer. Der Mensch könnte dann nicht mehr eingreifen. Für den Forscher ist daher klar: "Wir müssen die menschliche Kontrolle über diesen Entscheidungszyklus sicherstellen." Nötig sei die "Verfügungsgewalt" über autonome Waffen, wie sie auch Schwarz-Rot im Koalitionsvertrag fordere. Es müssten aber Menschen beteiligt werden, die dafür "völkerrechtlich Verantwortung übernehmen".

Sauer meint, mit autonomen Systemen für die Kriegsführung werde das Ziel verknüpft, den militärischen Entscheidungszyklus weiter zu komprimieren und deutlich zu beschleunigen. Für derlei Waffen werde keine Funkfernverbindung mehr gebraucht, sodass diese auch nicht abreißen oder gestört werden könne. Alle Entscheidungen über den "Wirkmitteleinsatz" würden im System selbst vor Ort getroffen. Es gebe "keine Latenz" mehr und "Signallaufzeiten" fielen weg. Die Folge sei: "Jedes ferngesteuerte System wird immer gegenüber vollautonomen den Kürzeren ziehen", da letztere Ziele selbst auswählen, verfolgen und bekämpfen könnten.

Die in Genf von den Vereinten Nationen seit 2014 geführten Gespräche über ein Verbot tödlicher autonomer Waffensysteme sind Sauer zufolge an einem "frustrierenden Punkt" angelangt, zumal die Staatengemeinschaft noch nicht einmal offizielle Verhandlungen aufgenommen habe. Bewegungen erfolgten allenfalls "in tektonischer Langsamkeit", sodass die Diskussion durch die technische Entwicklung überholt zu drohen werde.

Zwei positive Punkte machte Sauer für die jüngste Genfer Runde vorige Woche aber aus. So habe sich Österreich dafür ausgesprochen, Killer-Roboter & Co. international zu verbieten und sich so auf die Seite der Entwicklungsländer geschlagen. China habe angesagt, dass zumindest die Nutzung solcher Systeme untersagt werden müssten. Die geschlossene Linie der Mitglieder des UN-Sicherheitsrats, die gegen ein entsprechendes Verbot waren, scheint zu bröckeln.

Auf dem Podium des 12. Clausewitz-Strategiegesprächs diskutierten Frank Sauer, Götz Neuneck, Generalleutnant a. D. Kurt Herrmann und Brigadegeneral Gerald Funke (v. l. n. r.).

(Bild: Stefan Krempl)

Die Rolle Chinas im Wettstreit um die Führungsrolle bei KI in möglichst vielen Bereichen hat der Westen laut Sauer noch nicht richtig verstanden. So habe Peking etwa auch den Begriff der "Schlachtfeld-Singularität" erfunden und stelle damit auf einen Punkt ab, an dem die KI die geistige Fähigkeit des Menschen überhole. Die Chinesen gingen also offenbar davon aus, dass die Beschleunigung des Gefechtsfeldtempos notgedrungen dazu führen werde, dass die Maschinen die Steuerung übernehmen müssten. Die USA ließen derweil durchblicken, dass sie nicht die ersten sein wollten, "die den Schalter umlegen zur vollen Autonomie". Die Fähigkeit dazu wollten aber auch sie besitzen.

Götz Neuneck vom Institut für Friedensforschung und Sicherheitspolitik der Universität Hamburg meinte, dass es noch gar keine vollautonomen Waffensysteme gebe, "die alles allein entscheiden". Bislang sei immer ein Operateur eingebunden. Es sei auch im Interesse aller, die Kontrolle über solche Waffen zu behalten: "Ein Terminator-Szenario kann niemandem gelegen kommen."

Neuneck räumte ein, dass die USA, Iran, Israel, Pakistan, Russland oder die Türkei an KI-betriebenen Kriegsinstrumenten wie Schwarmtechnik arbeiteten. Derlei Ansätze seien aber immer mit Risiken behaftet, da die Wahrscheinlichkeit von "Unfällen" groß sei. Dazu komme ein Proliferationsproblem, wenn die Technik in die Hände substaatlicher Akteure gelange. Dass Russlands Staatschef Wladimir Putin mittlerweile damit angebe, einen KI-Torpedo und eine Art "fliegenden Reaktor" zu haben, zeige eher, wie nervös er sei und vermutlich lieber verhandeln wolle.

Das Ringen um einen Bann letaler autonomer Waffen in Genf sei "ehrlich", meinte Neuneck. Es gebe keine echte Alternative dazu, weiter miteinander zu reden und die klassische Rüstungskontrolle fortzuentwickeln, auch wenn diese teils "moribund" wirke und zwischen dem Westen sowie Russland aufgrund Fehler beider Seiten Vertrauen verloren gegangen sei. Es müsse trotzdem auch in dem neuen Bereich ein gewisses Gleichgewicht erzeugt werden: "Es geht um Beschränkung, Risikoverhinderung und Kriegsverhütung im gesellschaftlichen Dialog." Vordringlich sei es dabei, dass die einzelnen Staaten ihre Positionen und Einsatzbedingungen festlegten. (olb)