KI und Bundeswehr: Auf dem Weg zu autonomen Waffensystemen

KI wird das Kriegsgeschehen beschleunigen, sagen Experten – unter anderem durch autonome Waffensysteme, über die auch die Bundeswehr nachdenkt.

In Pocket speichern vorlesen Druckansicht 184 Kommentare lesen
KI und Bundeswehr: Auf dem Weg zu autonomen Waffensystemen

KI und Technik werden den Krieg massiv verändern.

(Bild: Dennis Herring/US Cyber Command)

Lesezeit: 4 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Die Bundeswehr strebt die Entwicklung tödlicher autonomer Waffensysteme an. Das geht aus einem kürzlich veröffentlichten Positionspapier des Amts für Heeresentwicklung hervor. Die Autoren des Papiers stufen die darin beschriebenen Systeme allerdings selbst als lediglich "automatisch" ein. Sogenannte Taktische unbemannte Flugsysteme (TaUAS) sollen Aufgaben "von der Aufklärung über Sperren bis hin zu offensiven Wirkmitteln" übernehmen.

In dem Positionspapier Künstliche Intelligenz in den Landstreitkräften, das auf der Tagung Künstliche Intelligenz – Chancen und Risiken für die Bundeswehr in Bonn verteilt wurde, wird ein Aufgabenszenario folgendermaßen beschrieben: "Die TaUAS sind mit Wirkmitteln ausgerüstet, die Gefechtsfahrzeuge oder empfindliche Komponenten von leichten gepanzerten Fahrzeugen bekämpfen können. Hierbei wird ein Schwarmverhalten genutzt, um die relativ geringe Nutzlast sowie die hohe Verwundbarkeit der einzelnen TaUAS durch Übersättigungsangriffe zu kompensieren."

Waffen, die Gefechtsfahrzeuge wirksam bekämpfen können, sind aber zum einen zweifellos potenziell tödlich. Zum anderen sind solche Einsätze nicht per Fernsteuerung zu betreiben: Die Drohnen müssen ihre Waffen bei Bedarf selbstständig auslösen können. Ein solches System nicht als "autonom" zu bezeichnen folgt der bereits mehrfach kritisierten Taktik, autonome Waffensysteme so zu definieren, dass sie öffentlich abgelehnt werden können, ohne eigene Entwicklungen zu beeinträchtigen.

So definiert das Positionspapier ein tödliches autonomes Waffensystem als ein "allein gegen Personen" gerichtetes System, das zudem lernfähig sein müsse und "ohne jegliche menschliche Einflussnahme" handle. Insbesondere letztere Bedingung kann eigentlich nur als absurd bezeichnet werden: Schließlich würden autonome Systeme wie Soldaten auch Befehlen, also menschlicher Einflussnahme, folgen – die sie dann mehr oder weniger flexibel der jeweiligen Situation anpassen.

Einer Definition des US-Militärs zufolge, wonach autonome Waffensysteme, einmal aktiviert, ihre Ziele ohne weitere Einwirkung durch Menschen auswählen und bekämpfen können, müssen die vom Amt für Heeresentwicklung angestrebten Drohnensperren in diese Kategorie eingeordnet werden. Die Bundeswehr dreht damit weiter an einer gefährlichen Rüstungsspirale, während die Bemühungen des für Rüstungskontrolle zuständigen Auswärtigen Amtes bei entsprechenden UN-Verhandlungen in Genf als eher zaghaft eingestuft werden müssen und bislang auch keine greifbaren Ergebnisse erzielen konnten. Um solchen Debatten zu entgehen, wurde auf der Bonner Tagung vorgeschlagen, auf Begriffe wie "Autonomie" oder "Intelligenz" ganz zu verzichten.

Aber auch jenseits solcher Definitionsfragen gab es keinen Zweifel, dass KI das Kriegsgeschehen massiv beschleunigt. Björn Pötter (ESG GmbH) erörterte das am Beispiel des Battle Management Systems Adler III, das derzeit gerade ausgeliefert werde. Es soll Entscheidungsprozesse im Verlauf der Kette Aufklärung-Führung-Wirkung unterstützen und verkürzen. Das gehe bis hin zu einer proaktiv wirkenden KI, die Bewegungen des Gegners vorhersehen soll. Trainiert werden könnte sie mithilfe von Simulationen und Wargaming. Pötter nannte beispielhaft das Spiel Boom Beach.

Ingo Kraft vom TÜV Nordrhein-Westphalen verwies darauf, dass KI sich schneller entwickle als jede andere Innovation. Dabei gäben andere Länder das Tempo vor: Chinesische Städte wie Shenzhen allein investierten ein Mehrfaches der drei Milliarden Euro, die von der Bundesregierung bereitgestellt wurden und kaum mehr als der "Tropfen auf dem heißen Stein" seien. Kraft verwies auf die Entstehungsgeschichte des TÜV, der 1870 gegründet worden sei, "als reihenweise Dampfmaschinen explodierten." "Uns werden demnächst die ersten KI-Algorithmen um die Ohren fliegen", vermutete er.

Auch Manfred Hiebl (Airbus Defence and Space) erwartet, dass "KI ein Wettrüsten hervorrufen wird, das kaum zu stoppen ist". Dem wäre allenfalls entgegenzusetzen, dass dieses Wettrüsten längst im Gange ist – wie unter anderem das Positionspapier des Amts für Heeresentwicklung zeigt.

Über die damit verbundenen ethischen Fragen wurde in Bonn ebenfalls ausführlich diskutiert. So stellte Christiane Woopen (Uni Köln) das erst in der vergangenen Woche an die Bundesregierung überreichte Gutachten der Datenethikkommission vor. Militärische Aspekte streifte sie dabei nur am Rande. Allerdings dürften Leitgedanken wie "menschengerechte Gestaltung von Technik", "Schutz persönlicher Freiheit und Selbstbestimmung" oder "Gemeinwohlverträglichkeit" übergreifend für den zivilen Bereich ebenso gelten wie für den militärischen. Bedenkenswert ist in diesem Zusammenhang auch die Beobachtung von Wolfgang Koch (Fraunhofer FKIE), der sagte: "In militärischen Anwendungen zeigen sich generelle Probleme der KI wie in einem Brennglas." (vbr)