KI bei der Bundeswehr: Was ist erlaubt und was nicht?

Algorithmen ermöglichen nicht nur tödlichere Waffen, sondern auch bessere Logistik. Was der Armee erlaubt ist und sein sollte, wird aber noch diskutiert.

In Pocket speichern vorlesen Druckansicht 50 Kommentare lesen
KI bei der Bundeswehr: Was ist erlaubt und was nicht?

(Bild: boscorelli/Shutterstock.com)

Lesezeit: 6 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Der Einsatz von Künstlicher Intelligenz (KI) beim Militär wird in der Öffentlichkeit bislang überwiegend im Zusammenhang mit autonomen Waffensystemen diskutiert. Doch die Technologie bietet weit umfassendere Verwendungsmöglichkeiten. Eine Tagung der Deutschen Gesellschaft für Wehrtechnik (DWT) versucht jetzt, das Thema aus der Weitwinkelperspektive zu betrachten.

Unter dem Titel Künstliche Intelligenz – Chancen und Risiken für die Bundeswehr sollen in Bonn insbesondere die Aspekte Logistik, Führungsprozess sowie KI in technischen Systemen (wozu dann auch Waffensysteme zählen) erörtert werden. Zum Abschluss stehen auch Vorträge zu "KI und Ethik" auf dem Programm.

Die Konferenzteilnehmer ließen sich indessen nicht davon abhalten, ethische Fragen bereits nach den ersten Vorträgen aufzuwerfen: "Wir müssen zu Antworten kommen, was wir dürfen und was nicht", forderte ein Teilnehmer und bezweifelte zugleich, dass die ethischen Kriterien schon verfügbar seien, um das zu bewerten. Ein anderer warnte vor der Auffassung, dass die Logistik im Vergleich mit Waffensystemen ein "harmloses" Einsatzgebiet wäre: Entscheidungen über Nachschublieferungen könnten den Verlust von mehr Menschenleben bewirken als ein einzelnes Waffensystem.

Katharina Zweig (TU Kaiserslautern) hatte zuvor bereits auf das Max-Flow-Min-Cut-Theorem aus der Graphentheorie verwiesen, mit dessen Hilfe bestimmt werden könne, wie bei begrenzten Transportkapazitäten möglichst viel Nachschub an die Front gebracht werden kann – das aber auch dem Gegner zeigt, an welchen Stellen der Logistik-Kette der maximale Schaden bewirkt werden kann.

Anders als bei solchen klassischen Algorithmen, so Zweig, gebe es bei Verfahren der KI und des maschinellen Lernens keine Garantien und eindeutigen Lösungen. Sie demonstrierte es an einem einfachen Beispiel, bei dem kriminelle Personen und unschuldige Bürger hinsichtlich ihrer jeweiligen Anteile an "Kriminolin" und "Sanftosan" in einem zweidimensionalen Koordinatensystem erfasst wurden. Die Aufgabe bestand nun darin, eine Linie zu finden, die beide Gruppen möglichst gut voneinander trennt – ein Verfahren, das als "Support Vector Machine" bekannt ist. Rasch wurde deutlich: Es gibt keine perfekte Lösung. Entweder bleiben Kriminelle unentdeckt, oder es werden Unschuldige als kriminell eingestuft.

Die Frage, in welche Richtung das System optimiert werden soll, sei keine mathematische, sondern eine gesellschaftliche, betonte Zweig. Sie zitierte den Rechtsphilosophen William Blackstone, der 1760 postulierte, dass es besser sei, wenn zehn Schuldige entkämen, bevor ein Unschuldiger leide. Der ehemalige US-Vizepräsident Dick Cheney dagegen habe erklärt, er sei mehr um die Bösen besorgt, die entkommen, als um einige, die tatsächlich unschuldig seien.

Hinzu käme, dass manche Delikte sich leichter verfolgen ließen als andere. Dies führe zu Verzerrungen des Algorithmus, der dann zum Beispiel Wirtschaftskriminalität weniger gut erfassen könne. Als Beispiel nannte sie Netzwerkanalysen, die auf Grundlage von Reiseverhalten, Aktivitäten in sozialen Netzwerken oder Mobilfunkdaten Terroristen identifizieren sollen. Das Skynet-Programm des US-Geheimdienstes NSA etwa habe auf diese Weise den Journalisten Ahmad Muaffaq Zaidan zum Topterroristen erklärt. Daten böten immer nur einen Ausschnitt der Wirklichkeit, erklärte Zweig. Mobilfunkdaten würden von den Geheimdiensten nicht verwendet, weil sie eine hohe Qualität hätten, sondern weil sie verfügbar sind. "Ethik kommt über Sie, mich, uns in den Rechner", mahnte sie.

Nicht nur aus diesem Grund waren die meisten Vorträge von einer gewissen Zurückhaltung geprägt. Zwar wurde nicht bezweifelt, dass es sich bei KI um eine "disruptive" Technologie handle, mit dem Potenzial, bestehende Geschäftsmodelle zu verändern, wie Wolfgang Gäbelein (Planungsamt der Bundeswehr) erklärte. Gerade im Bereich der Menschenführung sei Vertrauen aber unerlässlich. „Die Einführung von KI kann nicht einfach geschehen, sie muss gestaltet werden“, lautete seine Forderung.

Michael Mittelstädt, der sich beim Bundesverteidigungsministerium mit der Logistik-Planung beschäftigt, verspricht sich von KI eine Erhöhung der Effektivität und Effizienz wie auch der Entscheidungsqualität bei logistischen Prozessen. Wenn auch noch neue Fähigkeiten hinzukämen, wäre das ein "Sahnehäubchen", das aber nicht an erster Stelle stehe. Die Einführung dürfe jedenfalls nicht als "disruptive Revolution" erfolgen, sondern müsse schrittweise geschehen. Die derzeitigen Prozesse, die auf dem SAP-Standard S/4HANA beruhten, dürften nicht gefährdet werden. Den Einsatz von KI hielt Mittelstädt zudem nur für vertretbar, wenn sie unter anderem abschaltbar und ersetzbar sei. Eine solche Forderung nach Rückfalllösungen fand in der Diskussion allgemein Zustimmung.

Ganz frei wählen kann die Bundeswehr das Tempo, mit dem sie KI einführen will, jedoch nicht. Kai Pervölz (Fraunhofer IAIS) verwies auf "Hyperwar"-Szenarien mit Cyberangriffen sowie Angriffen mit großen Mengen automatisch und autonom gesteuerter Systeme, die die Kriegführung massiv beschleunigten und räumlich entgrenzten. Wer schneller plane und entscheide, sei dabei klar im Vorteil. Insbesondere bei der Lagefeststellung und Entscheidungsfindung sah Pervölz Ansatzpunkte für Unterstützung durch KI. "Wir müssen in vielen Bereichen schneller und agiler werden", sagte er.

Noch deutlicher formulierte es Jan Wilhelm Brendecke (Amt für Heeresentwicklung): "Wer schneller zielt und besser trifft, bleibt Sieger im Feuerkampf." Am Beispiel von Computerspielen wie StarCraft 2 und Quake III Arena, bei denen KI mittlerweile Menschen überlegen ist, zeigte er, wie KI Entscheidungsprozesse beschleunigen, das Ressourcen-Management verbessern oder die Entwicklung neuer Strategien unterstützen könne. Der Einsatz von neuronalen Netzen in militärischen Systemen sei daher nur eine Frage der Zeit. Entscheidend für deren Qualität seien weniger die Algorithmen, die frei verfügbar seien, sondern vor allem die Trainingsdaten. Bei der Beantwortung zwei entscheidender Fragen, die Brendecke in den Raum stellte, dürfte KI jedoch kaum helfen können: "Was können/wollen wir an KI übergeben? Was müssen wir an KI übergeben?" (mho)