KI im Krieg: Algorithmen werden Entscheidungen treffen​

Das Thema "Künstliche Intelligenz" beschäftigt auch das Militär. Auf einer Konferenz in Berlin geht es um die Verwendung von KI im Krieg – und deren Grenzen.​

In Pocket speichern vorlesen Druckansicht 11 Kommentare lesen
Zwei Soldaten in Tarnzeug mit Helm schauen auf einen aufgeklappten Laptop

(Bild: Gorodenkoff/Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Ulrike Heitmüller
Inhaltsverzeichnis

Die Entwicklung der Künstlichen Intelligenz (KI) erfasst neben vielen Alltagsbereichen auch die Kriegsführung. Die Änderungen insgesamt sind umwälzend: Sie betreffen Technik, Taktik und Strategie, Politik und Gesellschaft. Auf der Handelsblatt-Konferenz Sicherheit und Verteidigung am Dienstag und Mittwoch in Berlin war KI eines der bestimmenden Themen.

Im Zweiten Weltkrieg schossen Soldaten mit Gewehren aufeinander oder nutzten andere Nahkampftechniken. Die gibt es immer noch, neben den klassischen Waffensystemen wie Panzer oder Artillerie. Wie sich die Kriegsführung verändert, lässt sich am Krieg zwischen Russland und der Ukraine sehen, in dem Drohnen und Drohnenabwehrsysteme eine Rolle spielen.

Bei der Entwicklung militärischer KI macht Heiko Borchert, Co-Direktor des Defense AI Observatory an der Helmut-Schmidt-Universität Hamburg, drei Wellen aus. In der dritten werde ein KI-System die "Rules of Engagement" verstehen und Entscheidungen treffen können – mit Blick auf Konsequenzen des eigenen und gegnerischen Handelns. So eine KI ist noch nicht im Einsatz, "auch wegen Zertifizierung und Zulassung" – wohl aber in Simulationen. "Da ist Deutschland sicher ein Vorreiter."

Borchert und andere Teilnehmer in Berlin sehen eine ganze Reihe offener Fragen um den KI-Einsatz durch das Militär. Erstens: Was will man überhaupt erreichen? Borchert erinnert an die drei "principles of war" Agilität, Flexibilität und Schnelligkeit: "Und da muss man fragen, welche KI-Methode am besten geeignet ist, zu welcher Zielsetzung welchen Beitrag zu leisten." Bei einer Studie zu 24 Ländern habe er festgestellt, dass alle Länder sich extrem schwer damit täten, die Zielsetzungen zu präzisieren.

Eine andere Frage betrifft die Risiken durch ausländische Unternehmen: Viele Länder lassen keine ausländischen Unternehmen an ihre Militärindustrie. "Das Thema kommt mit unglaublicher Wucht auf Europa zu", sagt Borchert. Denn über ausländische Systeme gelange KI faktisch in die Streitkräfte, ähnlich wie man bei Windows ein Office-Paket mitbekomme.

Dann die Frage nach dem traditionellen Hierarchieverhältnis zwischen befehlendem Mensch und ausführender Maschine. Wenn etwa der Gegner die Verbindung zwischen einem Soldaten und seiner Drohne zerstört: Soll die Drohne weiterfliegen oder umkehren? Und wenn sie weiterfliegt und Ziele ausspäht: Soll sie umkehren oder diese selbstständig zerstören?

Sibylle Bauer vom Stockholm International Peace Research Institute (SIPRI) gab technische Grenzen zu bedenken, etwa die Fehlerquote bei Maschinen. Außerdem völkerrechtliche Gesichtspunkte: Wenn nach einem Angriff Verletzte geborgen werden sollten – wie programmiere man eine Maschine für die notwendige Feuerpause?

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Schließlich der "Dual Use", also die militärische Nutzung ursprünglich ziviler Objekte. Dieses Thema kommt im Laufe der Konferenz immer wieder auf. Erstaunlich sei, dass nach zwei Jahren Ukrainekrieg zivile Drohnensysteme immer noch so fundamental wichtig seien, meint Ulrike Franke vom European Council on Foreign Relations (ECFR). Weil auch die Gegner militärisch nutzbare zivile KI entwickeln, dürfe man nicht ins Hintertreffen geraten.

Autonome Systeme seien schon aufgrund des allgemeinen Personalmangels einfach notwendig, sagt Nato-General Chris Badia. Zur kritischen Infrastruktur gehörten etwa die Seekabel unter Wasser, die "man nicht bemannt, sondern nur autonom bewachen" kann.

Florian Seibel von der Quantum-Systems GmbH schließlich kritisierte, dass in der Öffentlichkeit nicht ehrlich genug geantwortet werde: "Man braucht eine total risikoaffine Führung, nur so ist eine Technologieführerschaft erreichbar." Die aber sei kaum noch erreichbar, denn durch lange Diskussionen verpasse man leicht den Anschluss. Ziel sei nicht Kriegstüchtigkeit, sondern Siegfähigkeit.

(vbr)