Missing Link: Drohnen und Künstliche Intelligenz im Krieg

Das Töten im Krieg ist einfacher geworden – mit Drohnen per Knopfdruck aus der Ferne. Der Einsatz von KI im Krieg ist nicht neu. Das ethische Dilemma bleibt.

In Pocket speichern vorlesen Druckansicht 52 Kommentare lesen
Soldat, der Drohne am Himmel mit Smartphone steuert

(Bild: Parilov/Shutterstock.com)

Lesezeit: 14 Min.
Von
  • Ulrike Heitmüller
Inhaltsverzeichnis

Früher sah ein Soldat den Gegner, den er gleich töten würde – oder von dem er gleich getötet werden würde. Heutzutage ist das anders, Töten im Krieg ist einfacher geworden. Und man darf vermuten, dass es in Zukunft noch einfacher wird: Oft genug genügt es, auf einen Knopf zu drücken.

Bajonett und Kampfmesser kommen im Krieg zwar immer noch zum Einsatz, zunehmend wichtiger werden aber Fernwaffen wie Gewehre, Artillerie – die heute schon enorme Strecken zurücklegen können – und Bomben. Von immer größer Bedeutung sind aber vor allem Drohnen und autonome Waffensysteme, die mithilfe Künstlicher Intelligenz (KI) ihre Ziele mehr oder minder selbstständig erreichen – sofern sie nicht durch "Jammer" oder ähnliches gestört oder gar umgelenkt werden.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Für all dies ist die Weiterentwicklung der vorhandenen Ausrüstung und Technik zur Kriegsführung notwendig. In den unterschiedlichen Staaten werden immer wieder neue Dinge erfunden, konstruiert und auf den Markt gebracht und jede Armee versucht sich an die Möglichkeiten potenzieller Gegner anzupassen. Das vorhandene Kriegsgerät kann jedoch nicht immer wieder ersetzt werden, um Nachteile auszugleichen. Eine mögliche Lösung für das Dilemma: "Software Defined Defence".

Dabei wird die Hardware von Anfang an so entwickelt und konstruiert, dass immer neue und weiterentwickelte Software aufgespielt werden kann, wodurch die Hardware neue Fähigkeiten erlangt. Diese Themen wurden auch bei der diesjährigen Handelsblatt-Konferenz "Sicherheit und Verteidigung" diskutiert, die im Januar in Berlin stattfand.

Ein Positionspapier (PDF), das vom Bundesverband der Deutschen Sicherheits- und Verteidigungsindustrie e. V. (BDSV), Bundesverband der Deutschen Luft- und Raumfahrtindustrie e.V. (BDLI), Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V. (Bitkom) und dem Bundesministerium der Verteidigung (BMVg) im Oktober 2023 auf der Website des BMVg veröffentlicht wurde, stuft die sogenannte "Software Defined Defence" (softwarebestimmte Verteidigung, SDD) als "ein zentrales Leit-Prinzip für die Streitkräfteentwicklung der Zukunft" ein.

Ein Programm entwickelt man schneller als einen Panzer, und noch schneller, wenn man standardisierte Softwaremodule verwendet. Die müssen allerdings erst einmal entwickelt werden.

Um den neuen Anforderungen gerecht zu werden, hatte sich die Bundeswehr in der Vergangenheit vorwiegend auf Hardware konzentriert. Das Prinzip der SDD mit seiner Fokussierung auf Software soll gemäß dem Positionspapier die IT-Infrastruktur vorhandener Systeme digital ertüchtigen und dafür sorgen, dass sie besser vernetzbar und flexibler an neue technische und taktische Anforderungen und Bedrohungen angepasst werden können. Neue Systeme sollen von vornherein SSD-ready hergestellt werden.

Generalleutnant Michael Vetter, Abteilungsleiter Cyber/Informationstechnik und Ressort Chief Information Officer im Bundesministerium der Verteidigung, sagte: "Software und digitale Technologien haben immer größeren Einfluss." Man sei noch sehr stark auf die Hardware fokussiert und benötige für die Zukunft eine Plattform für mehrere Applikationen.

So etwas ist für ein Unternehmen nicht ganz einfach zu stemmen, erklärt Martin Karkour, Vice President und Head of Aerospace & Defense beim Beratungshaus Capgemini: Das hänge davon ab, "wie weit man in der eigenen Entwicklung ist. Wenn sich ein klassischer Hardwarelieferant zu einem Softwarelieferanten entwickeln will, hat das einen Impact auf die eigene Organisation, die digitale Auslieferung, das Geschäftsmodell, das operating model." Es handele sich nicht um eine Frage nach bestimmten Firmen, sondern nach dem Entschluss zu modernisieren. "Wir brauchen mehr Software-First-Companies. Aber nicht mehr Software-Only." Man habe schon "herausragend gute Produkte der Wehrtechnik", benötige aber mehr Start-ups, strategische Ökosysteme.

Auterion-Chef Lorenz Meier etwa hat mit PX4 eine Open Source Community für Autopiloten aufgebaut. Damit wollte er Drohnen autonom machen, sodass diese nicht mehr von Piloten manuell gesteuert werden müssten. "Das Betriebssystem ist sehr generisch, es wird in den USA von Walmart für die Auslieferung genutzt", berichtet er. Dabei sei es nicht geblieben: "Wir haben jetzt Defence entdeckt. Wir liefern das Betriebssystem und einige Kernanwendungen." Ihre Partner könnten dafür dann Spezialfälle und -anwendungen entwickeln und aufspielen.

"Das ist ein sehr schneller Zyklus", sagt Meier, ein und dasselbe Betriebssystem sei auf verschiedene Drohnen aufsetzbar und darauf seien dann unterschiedliche Softwares aufspielbar. Die Arbeit für das Zivile und Militärische habe viele Gemeinsamkeiten, sagt Meier: Man benötige genauso lange Verkaufszyklen, Beziehungen und Fachwissen. Einen Unterschied allerdings muss man wohl immer im Hinterkopf behalten: "Man muss wissen, wenn das Produkt versagt, riskiert man das Leben seiner Kunden."

Auch in anderer Hinsicht stellt sich die Frage nach der Sicherheit, etwa bei den Schnittstellen. Wenn die Bundeswehr die Sensoren besitzen wolle, müsse sie die Schnittstellen bestimmen und die gesamte Datenplattform müsse aus Sicherheitsgründen im Besitz der Bundeswehr sein, sagt Frank Leidenberger, CEO des Bundeswehr IT-Dienstleisters BWI GmbH. Man brauche ein "Internet of Things" für das Militär. "Wie stelle ich sicher, dass das System mir gehört?", fragt er. Man müsse eben auch Themen wie Datenabfluss und Cloud-Sicherheit bedenken. Wenn es in Deutschland kaum Anbieter für eine Cloud gebe, arbeite man dann mit US-Firmen zusammen? Entwickle man in Friedenszeiten gemeinsam mit anderen Staaten Software? Open Source werde nicht kuratiert, "man braucht immer jemand, der es prüft und bewertet" und der dann auch über den Nutzen entscheidet, so Vetter. Man benötige darüber hinaus zuverlässige Krypto-Lösungen.

Der Generalleutnant a.D. kritisierte die Zivilklausel, die zahlreichen wissenschaftlichen Einrichtungen wie Universitäten die Forschung selbstverpflichtend ausschließlich für zivile Zwecke erlaubt – außer natürlich die Universitäten der Bundeswehr in Hamburg und München. Das Fehlen einer solchen Zivilklausel in autoritären Systemen sei für diese ein Vorteil.

Um Sicherheit geht es bei Hard- und Software gleichermaßen. So Gundbert Scherf, CEO und Mitbegründer des Software-Unternehmens Helsing, das viel mit Streitkräften zusammenarbeitet und Produkte für die Nachrüstung bestehender Verteidigungssysteme und zur KI-Befähigung neuer Hardware-Programme entwickelt. "Wir brauchen Klasse. Masse schaffen wir ohnehin nicht. Die Wirkung zählt." Gefragt seien Präzision, moderne Technologie – Spitzentechnologie –, Software und Vernetzung.

Wann? "Die Zukunft ist schon hier, sie ist nur ungleich verteilt", sagt Scherf. KI sei kein Thema für morgen: "Wir sehen es im Osten, jetzt, live und in Farbe." Innerhalb von zwei Jahren habe sich der Krieg enorm verändert.

Die Ukraine müsse derzeit 50 Prozent ihres Staatsbudgets für die Verteidigung ausgeben, "wir schaffen nicht mal zwei Prozent!" Scherf befürwortet die Abschreckung: Der ukrainische Präsident Wolodymyr Selenskyj wolle eine Million Drohnen und "unsere Aufgabe in Europa muss eine NATO-Ostflanke ohne Trump sein".

Früher konnte eine Kriegspartei mit Infanterie und Panzern einen Überraschungsangriff an einer Front starten. Das ist unter anderem dank der Luftaufklärung durch Drohnen heutzutage viel schwieriger geworden. Jetzt spricht man von einer "gläsernen Front: Was reinrollt, ist weg." Wichtig seien daher Abstands- und Aufklärungsfähigkeit und auch die Störung von Daten. Man soll laut Scherf teilautonomer werden: "Das findet jetzt statt, im Januar und Februar 2024." Diese Entwicklung habe zwei Seiten: Einerseits die bestmögliche Unterstützung der Ukraine, andererseits die Lehren, die man für sich selbst ziehe, für die eigene Zeitachse von fünf bis sieben Jahren.

Das oben erwähnte Positionspapier stuft KI – als eine spezielle Form von Software – immer wichtiger ein. Die etwas trockene Definition von KI auf der Website des Fraunhofer Instituts für Kognitive Systeme zeigt allerdings das ethische Problem des Einsatzes von KI im Krieg: KI "imitiert menschliche kognitive Fähigkeiten, indem sie Informationen aus Eingabedaten erkennt und sortiert. Diese Intelligenz kann auf programmierten Abläufen basieren oder durch maschinelles Lernen erzeugt werden." Maschinen lernen zu töten – aber dürfen sie darüber auch entscheiden?

Man müsse fragen, mahnt Sibylle Bauer vom Stockholm International Peace Research Institute (SIPRI), wie viel Autonomie in welchen Funktionen notwendig sei, und entsprechend: "Wie viel Kontrolle ist möglich und sinnvoll?"

Wann ist KI militärisch, politisch und gesellschaftlich sinnvoll und erstrebenswert? Ulrike Franke vom European Council on Foreign Relations (ECFR) schlägt in dieselbe Kerbe: "Wollen wir gewisse Entscheidungen an KI abgeben? Die Antwort auf Frage ist auch anders, wenn man sich in einem Verteidigungskrieg befindet." Die Diskussion um Möglichkeiten und Kontrolle von Autonomie hält sie allerdings für eine künstliche, man könne beides schließlich parallel diskutieren: "Man kann solche Überlegungen auch nutzen, um Technologien zu entwickeln und dadurch eine grundsätzliche Technologieführerschaft zu erlangen." Aber das ethische Dilemma bleibe: "Was, wenn der Kontakt zu einer Drohne abbricht?"

Florian Seibel, CEO des Unternehmens Quantum Systems, das auch Drohnen an die Ukraine liefert: "Die rote Linie endet bei der Aufklärungsfähigkeit. Natürlich kann eine Drohne auch eine Waffe tragen. Aber wenn die Kommunikation unterbunden ist, muss sie zurück." Sie dürfe vorselektieren und Ziele identifizieren – "aber darf eine strike drone, die ihr Ziel gefunden hat, ihr Ziel bekämpfen?"

Letztlich könne man den Kontext aber auch ganz anders sehen, sagt NATO-General Chris Badia: "Wann habe ich was, und wie setze ich letztlich was regelbasiert ein?" Es gebe ja nicht nur entweder autonom oder nicht-autonom." Früher habe es geheißen, fire and hide (feuern und verstecken), jetzt gehe es darum, "das gläserne Gefechtsfeld zu überkommen."

Dabei sind Drohnen nicht ganz neu in der Kriegsführung. Allerdings haben sich Art und Ausmaß ihres Einsatzes mit dem Ukrainekrieg komplett gewandelt. Und die Russen haben aufgerüstet, um das elektromagnetische Spektrum zu beherrschen. Die einen fahren einen Cyberangriff, die anderen Störsender, die einen besorgen sich ferngesteuerte Drohnen, die anderen stören die Kommunikation und lenken diese Drohnen womöglich gegen deren Besitzer, die ersten besorgen sich störresistente Kommunikationsgeräte ... und so weiter.

Franke hat für ihre PhD in Oxford die Nutzung von Drohnen in Kampftruppen untersucht. Einerseits, sagt sie, gebe es immer wieder Momente, in denen ein Waffensystem "nach oben gespült wird und kampfentscheidend scheint", aber "dann findet der Gegner Abwehrmöglichkeiten." Und dann werde es wieder still um das System. Bei Drohnen und Drohnenabwehr beobachtet sie dagegen "ein wahnsinniges Katz-und-Maus-Spiel". Sie sei erstaunt, wie wichtig zivile Drohnen nach zwei Jahren Krieg immer noch seien, "sie sind immer noch fundamental."

Drohnen sind Hardware – spricht ihre Wichtigkeit gegen das Gewicht von SDD? Nein, so Seibel: Die Branche selber sei auch ein Faktor, so sei auch Quantum entstanden.

Im Gegensatz zu einer Panzerhaubitze kann man eine Drohne notfalls auch am Küchentisch zusammenbauen. "Der Zug für Rüstungskontrolle ist schon abgefahren", sagt Franke, "das sind kleine Systeme für dual use. Immer mehr private Akteure nutzen Drohnen für militärische Zwecke." Sorge bereite genau dies im zivilen Kontext, sprich: Terrorangriffe.

Man sollte Rüstungskontrolle früher ansetzen, schlägt Bauer vor. An den Universitäten würden kaum Kurse zu Sicherheitsfragen angeboten. Es gebe ja auch biologische und chemische Waffen, die zwar verboten seien, über die ein Forscher aber Bescheid wissen müsse, falls er quasi versehentlich etwas Derartiges erforsche. Ein weiteres nicht gelöstes Dilemma betreffe die Verknüpfung von Technologiefeldern. KI verbunden mit Neurologie könne zu ganz neuen Problemen führen.

Kontrollmöglichkeiten fehlen – bloß: Was hat es für einen Sinn, etwas zu verbieten, das man noch gar nicht kennt?

Auch KI in Waffensystemen ist eigentlich gar keine wirklich neue Entwicklung, erklärt Heiko Borchert, Co-Direktor des Defense AI Observatory an der Helmut-Schmidt-Universität Hamburg. Er sieht drei Wellen: Zum einen den regelbasierten Einsatz von KI, bei dem der Mensch die Vorgaben macht, danach den datengetriebenen Einsatz, der die Maschine befähigen soll, aus Daten Erkenntnisse zu gewinnen und schließlich ein System, das die "Rules of Engagement" verstehen und Entscheidungen treffen kann. Ein derartiges System sei aber bislang nicht im Einsatz. Diesbezügliche Fragen stellten sich nun aber in der Ukraine, in der permanente Verbindungen etwa zu Drohnen kaum möglich seien, weil der Gegner die Verbindung störte. Also benötigte man Drohnen mit mehr Autonomie. Und dann?

Auterion-Chef Meier gibt mit Blick auf die rasante Entwicklung im Bereich der Drohnenanwendung zu bedenken: "Da wurde anfangs improvisiert und dann immer weiter professionalisiert." Man habe eine schnelle Digitalisierung gesehen und die Ausweitung von anfangs wenigen Soldaten mit Drohnen sei zu einem "Massenphänomen" geworden.

In Deutschland geht es Hunderte, in der Ukraine Hunderttausende, wenn nicht Millionen Drohnen. "Die nächste Frage ist, wie werde ich diese Drohnenschwärme wieder los?"; sagt Leidenberger, CEO der BWI GmbH. Andererseits: "Wir sehen immer Risiken und Kontrollverlust." Man könne neue Techniken aber auch nutzen und vorantreiben. "Die Ukraine hat nicht gewollt, sondern gemusst – und gemacht", sagt Karkour von Aerospace & Defense, "und aus der Notwendigkeit heraus gehandelt." Auch der Umzug in die Cloud habe einen massiven Push gebracht.

Die Geschichte kennt mehrere Game-Changer in der Geschichte der Kriegsführung – in jüngerer Zeit etwa U-Boote, Atomwaffen. Drohnen, SDD und überhaupt der Einsatz von KI könnten sich auch als Game-Changer herausstellen.

Aber dadurch wird Kriegsführung nicht einfacher, auch nicht in Deutschland. Zum einen, weil im Krieg immer Menschen sterben oder zu Schaden kommen und die Bundeswehr sich die vielen teuren IT-Fachleute kaum leisten kann, die sie für ihre Modernisierung benötigt – und die es ohnehin kaum gibt. Auf der anderen Seite, weil die Bundeswehr sehr bürokratisch ist, und Bürokratie ein großer Hemmschuh ist.

Was einfacher wird, ist das Töten. Man kann auf Knopfdruck viele Menschen umbringen. Die Folgen werden sich allerdings erst zeigen. Vielleicht führt das schneller zum Sieg einer Kriegspartei, aber es stellt sich auch die Frage, ob Soldaten eine Posttraumatische Belastungsstörung (PTBS) auch nach so einem Knopfdruck bekommen? Nach dem Einsatz von Drohnen? Oder, umgekehrt, nach dem Einsatz eines Jammers – eines elektromagnetischen Störfeldes – das eine gegnerische Drohne daran gehindert hat, ihr Ziel zu erreichen, stattdessen umgeleitet wurde und ein ziviles "Ziel" zerstört oder Zivilisten getötet hat?

Update

Korrektur: Aufgrund eines Fehlers im Redaktionsprozess hieß es in dem Text ursprünglich, eine Drohne könne einen Küchentisch zusammenbauen. Gemeint war, dass man eine Drohne notfalls auch am Küchentisch zusammenbauen kann. Wir haben die Passage korrigiert und bitten um Entschuldigung.

(bme)