KI in der Soldatenausbildung: Lernen bleibt anstrengend

Abseits von Robotern und autonomen Waffen setzt das Militär auf KI-Technik. Auf einer Konferenz in Bonn geht es darum, was sich dadurch ändert und was nicht.

In Pocket speichern vorlesen Druckansicht 7 Kommentare lesen
KI in der Soldatenausbildung: Lernen bleibt anstrengend

(Bild: SanTrain/Marko Hofmann)

Lesezeit: 4 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Wenn über die militärische Nutzung Künstlicher Intelligenz (KI) diskutiert wird, stehen zumeist Roboter und autonome Waffensysteme im Vordergrund. Doch es gibt natürlich noch andere Anwendungsbereiche. In Bonn beschäftigt sich eine Konferenz der Deutschen Gesellschaft für Wehrtechnik (DWT) jetzt mit dem Einsatz von KI in der Ausbildung von Soldaten.

Ein erklärtes Ziel der DWT-Tagung Künstliche Intelligenz in der Ausbildung ist es, "Chancen und Risiken für die Streitkräfte" auszuloten. KI könne helfen, könne aber auch Probleme bereiten, wenn es darum geht, den Ausbildungsauftrag zu erfüllen, sagte Georg Klein gleich zu Beginn. Für diesen Auftrag hatte der beim Kommando Streitkräftebasis für die Ausbildung zuständige Brigadegeneral auch eine klare Definition parat: Der bestehe darin, einsatzbereite Kräfte zur Verfügung zu stellen.

KI lässt sich nicht so eindeutig definieren, doch das stelle kein Problem dar – was durchaus als Indiz verstanden werden kann, dass die Diskussion in den letzten Jahren vorangekommen ist. Statt sich lange mit begrifflichen Abgrenzungen etwa von Autonomie und Automatik aufzuhalten, beschrieben die meisten Redner KI recht pragmatisch als ein technisches System, das Aufgaben erfüllen kann, die sonst nur von kognitiv höher stehenden Lebewesen bewältigt werden können. Ihre Entwicklung werde derzeit vor allem durch neue Lernverfahren, die Verfügbarkeit großer Datenmengen und hohe Rechenleistung voran getrieben, so Kai Pervölz vom Fraunhofer IAIS.

Mögliche Anwendungen in der Ausbildung sieht er bei der individuellen Anpassung des Lernstoffs an den Lernenden, der Modellierung gegnerischer Kräfte in Simulationen oder bei der Auswertung von Gefechtsübungen, wo zum Beispiel der Funkverkehr mithilfe von KI transkribiert und ausgewertet werden könnte.

Silja Meyer-Nieberg von der Universität der Bundeswehr München unterstrich das am Beispiel von Serious Games, die sich längst in der Ausbildung etabliert hätten. Dabei handelt es sich im Prinzip um Computerspiele, die aber nicht in erster Linie der Unterhaltung dienen, sondern das Lernen fördern und Verhalten ändern sollen. Letzteres funktioniert aber am besten, wenn der Spieler Spaß hat. Das kann KI unterstützen, indem sie den Schwierigkeitsgrad ständig an den Lernerfolg des Spielers anpasst, sodass dieser sich weder langweilt noch sich überfordert fühlt.

Beim Spiel SanTrain etwa, das an der Bundeswehruni entwickelt wurde, geht es um die Ausbildung von Sanitätern. Die können in dem Spiel zunächst mit der vergleichsweise einfachen Behandlung eines Beindurchschusses konfrontiert werden. Erst wenn sie die Aufgabe bewältigt haben, steht ihnen eine größere Herausforderung bevor, zum Beispiel eine Brandverletzung. Natürlich könnte die Simulation die Arbeit mit richtigen Menschen nicht ersetzen, betonte Meyer-Nieberg. Es gehe um eine Ergänzung traditioneller Methoden, nicht um ihre Ablösung.

Solche Erklärungen, dass es letztlich auf den Menschen ankomme und der Mensch im Mittelpunkt stehe, werden im militärischen Umfeld ähnlich häufig geäußert wie im zivilen. Dietmar Kunde vom Kommando Heer stellte dazu recht markant fest: "Dieses Credo muss operationalisiert werden." Was genau bedeutet es, dass der Mensch im Mittelpunkt steht?

Hans-Joachim Köppen (IBM) gab ein paar bedenkenswerte Hinweise. Die technologische Entwicklung bringe es mit sich, dass ein hoher Prozentsatz der Arbeitskräfte weltweit neu ausgebildet werden müsse. Um dieses "Skills-Problem" zu lösen, brauche es eine zukunftsfähige Führung mit einer "Haltung, die das Potenzial der Menschen fördert und wertschätzt". Lernen brauche Inspiration. Vertrauen, Respekt, Empathie, Ermutigung seien entscheidend, nicht Überwachung. Um Innovationen zu fördern, sei eine neue Fehlerkultur nötig. Das Führungspersonal müsse lernen, loszulassen.

Köppen unterstrich das mit einer schönen Anekdote: Ein Freund habe ihm von seinem Sohn erzählt, der schon sehr früh und erfolgreich begonnen habe, mit Python zu programmieren, und habe gefragt, zu was für einem Studium Köppen ihm raten würde. Philosophie, habe der geantwortet. Denn Programmieren könne der Sohn ja schon. Also solle er sich dem Kontext, den großen Zusammenhängen widmen, die entscheidend seien, aber bislang vernachlässigt würden.

Köppen warnte allerdings auch davor, sich von den Parolen derjenigen einfangen zu lassen, die jetzt neue Lernplattformen anböten. Seine Prognose, trotz aller KI: "Lernen wird anstrengend bleiben." (mho)