Missing Link: Drohnen und Künstliche Intelligenz im Krieg

Seite 2: Das ethische Dilemma bleibt

Inhaltsverzeichnis

Wann ist KI militärisch, politisch und gesellschaftlich sinnvoll und erstrebenswert? Ulrike Franke vom European Council on Foreign Relations (ECFR) schlägt in dieselbe Kerbe: "Wollen wir gewisse Entscheidungen an KI abgeben? Die Antwort auf Frage ist auch anders, wenn man sich in einem Verteidigungskrieg befindet." Die Diskussion um Möglichkeiten und Kontrolle von Autonomie hält sie allerdings für eine künstliche, man könne beides schließlich parallel diskutieren: "Man kann solche Überlegungen auch nutzen, um Technologien zu entwickeln und dadurch eine grundsätzliche Technologieführerschaft zu erlangen." Aber das ethische Dilemma bleibe: "Was, wenn der Kontakt zu einer Drohne abbricht?"

Florian Seibel, CEO des Unternehmens Quantum Systems, das auch Drohnen an die Ukraine liefert: "Die rote Linie endet bei der Aufklärungsfähigkeit. Natürlich kann eine Drohne auch eine Waffe tragen. Aber wenn die Kommunikation unterbunden ist, muss sie zurück." Sie dürfe vorselektieren und Ziele identifizieren – "aber darf eine strike drone, die ihr Ziel gefunden hat, ihr Ziel bekämpfen?"

Letztlich könne man den Kontext aber auch ganz anders sehen, sagt NATO-General Chris Badia: "Wann habe ich was, und wie setze ich letztlich was regelbasiert ein?" Es gebe ja nicht nur entweder autonom oder nicht-autonom." Früher habe es geheißen, fire and hide (feuern und verstecken), jetzt gehe es darum, "das gläserne Gefechtsfeld zu überkommen."

Dabei sind Drohnen nicht ganz neu in der Kriegsführung. Allerdings haben sich Art und Ausmaß ihres Einsatzes mit dem Ukrainekrieg komplett gewandelt. Und die Russen haben aufgerüstet, um das elektromagnetische Spektrum zu beherrschen. Die einen fahren einen Cyberangriff, die anderen Störsender, die einen besorgen sich ferngesteuerte Drohnen, die anderen stören die Kommunikation und lenken diese Drohnen womöglich gegen deren Besitzer, die ersten besorgen sich störresistente Kommunikationsgeräte ... und so weiter.

Franke hat für ihre PhD in Oxford die Nutzung von Drohnen in Kampftruppen untersucht. Einerseits, sagt sie, gebe es immer wieder Momente, in denen ein Waffensystem "nach oben gespült wird und kampfentscheidend scheint", aber "dann findet der Gegner Abwehrmöglichkeiten." Und dann werde es wieder still um das System. Bei Drohnen und Drohnenabwehr beobachtet sie dagegen "ein wahnsinniges Katz-und-Maus-Spiel". Sie sei erstaunt, wie wichtig zivile Drohnen nach zwei Jahren Krieg immer noch seien, "sie sind immer noch fundamental."

Drohnen sind Hardware – spricht ihre Wichtigkeit gegen das Gewicht von SDD? Nein, so Seibel: Die Branche selber sei auch ein Faktor, so sei auch Quantum entstanden.

Im Gegensatz zu einer Panzerhaubitze kann man eine Drohne notfalls auch am Küchentisch zusammenbauen. "Der Zug für Rüstungskontrolle ist schon abgefahren", sagt Franke, "das sind kleine Systeme für dual use. Immer mehr private Akteure nutzen Drohnen für militärische Zwecke." Sorge bereite genau dies im zivilen Kontext, sprich: Terrorangriffe.

Man sollte Rüstungskontrolle früher ansetzen, schlägt Bauer vor. An den Universitäten würden kaum Kurse zu Sicherheitsfragen angeboten. Es gebe ja auch biologische und chemische Waffen, die zwar verboten seien, über die ein Forscher aber Bescheid wissen müsse, falls er quasi versehentlich etwas Derartiges erforsche. Ein weiteres nicht gelöstes Dilemma betreffe die Verknüpfung von Technologiefeldern. KI verbunden mit Neurologie könne zu ganz neuen Problemen führen.

Kontrollmöglichkeiten fehlen – bloß: Was hat es für einen Sinn, etwas zu verbieten, das man noch gar nicht kennt?

Auch KI in Waffensystemen ist eigentlich gar keine wirklich neue Entwicklung, erklärt Heiko Borchert, Co-Direktor des Defense AI Observatory an der Helmut-Schmidt-Universität Hamburg. Er sieht drei Wellen: Zum einen den regelbasierten Einsatz von KI, bei dem der Mensch die Vorgaben macht, danach den datengetriebenen Einsatz, der die Maschine befähigen soll, aus Daten Erkenntnisse zu gewinnen und schließlich ein System, das die "Rules of Engagement" verstehen und Entscheidungen treffen kann. Ein derartiges System sei aber bislang nicht im Einsatz. Diesbezügliche Fragen stellten sich nun aber in der Ukraine, in der permanente Verbindungen etwa zu Drohnen kaum möglich seien, weil der Gegner die Verbindung störte. Also benötigte man Drohnen mit mehr Autonomie. Und dann?

Auterion-Chef Meier gibt mit Blick auf die rasante Entwicklung im Bereich der Drohnenanwendung zu bedenken: "Da wurde anfangs improvisiert und dann immer weiter professionalisiert." Man habe eine schnelle Digitalisierung gesehen und die Ausweitung von anfangs wenigen Soldaten mit Drohnen sei zu einem "Massenphänomen" geworden.

In Deutschland geht es Hunderte, in der Ukraine Hunderttausende, wenn nicht Millionen Drohnen. "Die nächste Frage ist, wie werde ich diese Drohnenschwärme wieder los?"; sagt Leidenberger, CEO der BWI GmbH. Andererseits: "Wir sehen immer Risiken und Kontrollverlust." Man könne neue Techniken aber auch nutzen und vorantreiben. "Die Ukraine hat nicht gewollt, sondern gemusst – und gemacht", sagt Karkour von Aerospace & Defense, "und aus der Notwendigkeit heraus gehandelt." Auch der Umzug in die Cloud habe einen massiven Push gebracht.

Die Geschichte kennt mehrere Game-Changer in der Geschichte der Kriegsführung – in jüngerer Zeit etwa U-Boote, Atomwaffen. Drohnen, SDD und überhaupt der Einsatz von KI könnten sich auch als Game-Changer herausstellen.

Aber dadurch wird Kriegsführung nicht einfacher, auch nicht in Deutschland. Zum einen, weil im Krieg immer Menschen sterben oder zu Schaden kommen und die Bundeswehr sich die vielen teuren IT-Fachleute kaum leisten kann, die sie für ihre Modernisierung benötigt – und die es ohnehin kaum gibt. Auf der anderen Seite, weil die Bundeswehr sehr bürokratisch ist, und Bürokratie ein großer Hemmschuh ist.

Was einfacher wird, ist das Töten. Man kann auf Knopfdruck viele Menschen umbringen. Die Folgen werden sich allerdings erst zeigen. Vielleicht führt das schneller zum Sieg einer Kriegspartei, aber es stellt sich auch die Frage, ob Soldaten eine Posttraumatische Belastungsstörung (PTBS) auch nach so einem Knopfdruck bekommen? Nach dem Einsatz von Drohnen? Oder, umgekehrt, nach dem Einsatz eines Jammers – eines elektromagnetischen Störfeldes – das eine gegnerische Drohne daran gehindert hat, ihr Ziel zu erreichen, stattdessen umgeleitet wurde und ein ziviles "Ziel" zerstört oder Zivilisten getötet hat?

Update

Korrektur: Aufgrund eines Fehlers im Redaktionsprozess hieß es in dem Text ursprünglich, eine Drohne könne einen Küchentisch zusammenbauen. Gemeint war, dass man eine Drohne notfalls auch am Küchentisch zusammenbauen kann. Wir haben die Passage korrigiert und bitten um Entschuldigung.

(bme)