Kampfroboter der Zukunft werden in simulierten Welten trainiert

KI-System von autonomen Drohnen könnten in virtuellen Welten lernen. Bild: DoD

Intelligente Roboter können schneller und effizienter in Simulationen lernen, Isaac Initiative, DeepMind oder OpenAI könnten den Weg weisen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Soldaten üben nicht nur im Gelände für die Ausbildung und zur Vorbereitung für den Ernstfall, sondern auch zunehmend mit Simulationen. Beides sind Spiele, wenn man unter Spielen Situationen verstehen will, die irgendwie nicht ernst sind. Autonome oder smarte Kriegsroboter oder intelligente Systeme können natürlich auch auf traditioneller Ebene lernen, viel effektiver ist aber, die KI-Systeme in Simulatoren zu trainieren, sie also spielen zu lassen. So können sie viel mehr Situationen nacheinander durchspielen und "Erfahrung" erwerben.

Daher verwundert auch nicht, was Quartz berichtet, dass Firmen bereits für smarte Maschinen oder KI-Systeme 3D-Simulationen mit Welten unter physikalischen Gesetzen zum Trainieren entwickeln. Das geschieht beim Maschinenlernen für zivile KI-Systeme wie für die Isaac Initiative von Nvidia, wo so Roboter erst einmal Hockey lernen sollen. Verglichen wird das mit dem Holodeck aus der Star-Trek-Serie.

Maschinenlernen basiert auf einer Verstärkung durch positive Konditionierung, wie dies vor der Computerzeit der Psychologe B. F. Skinner angedacht hat, um Verhalten zu programmieren. Letztlich lernen KI-Systeme auch durch eine Verstärkung gewünschtes Verhalten, d.h. eine "richtige" Problemlösung, indem immer wieder Entscheidungen durchgespielt werden. In simulierten Welten können Roboter oder KI-Systeme massenweise, schnell und billig lernen.

Nicht nur Nvidia, auch Googles bzw. Alphabets DeepMind oder OpenAI von Musk verfolgen das Ziel, Roboter in simulierten Welten auszubilden. Der Artikel bleibt allerdings dabei stehen, ohne die Folgen zu bedenken. Wenn es um militärische intelligente Systeme geht, müsste man, ähnlich wie bei Militärübungen, die Frage stellen, wie nahe die Simulation einer wirklichen Kampfsituation kommt, also welche Bedingungen berücksichtigt werden können. In der realen Welt spielen stets Zufälle, also nicht bedachte Ereignisse oder solche, die sich nicht vorhersehen lassen, eine wichtige Rolle.

KI-Systeme, die nur in Simulationen ihr Verhalten gelernt haben, könnten beim Eintritt solcher unvorhergesehenen Ereignissen verrückt spielen. Das könnte etwa so aussehen, dass sie routinierte Entscheidungen vornehmen, die keinen Bezug zu den konkreten Ereignissen haben, oder aber dass sie ein neues Verhalten lernen, wenn das Lernen nicht ausgeschaltet wurde, das ihnen nicht durch Konditionierung eintrainiert wurde und das sie aus der Kontrolle herauslöst oder unerwünschte Folgen hat.

Soldaten und Offiziere lernen am besten unter realen Kampfbedingungen. Auch hier findet Konditionierung statt, allerdings unter der Bedingung der Irreversibilität, was heißt, dass Menschen dabei getötet oder verletzt werden können. Ähnlich ist das bei Waffen, die sich unter Testbedingungen als wirksam zeigen können, aber beim wirklichen Einsatz scheitern. Daher sind Kriege als nicht-simuliertes Geschehen auch zum Testen und Demonstrieren von neuen Waffen entscheidend, sie erhöhen zudem die Verkaufswahrscheinlichkeit und dienen der Abschreckung. Das wird bei KI-Systemen auch der Fall sein.

Wenn also militärische KI-Systeme in simulierten Welten lernen, wiederholt sich damit nur, was Soldaten auch durchlaufen müssen, indem sie beispielsweise unter bestimmten Bedingungen lernen, ihre Waffen abzufeuern. Was in den Köpfen der Soldaten dabei vor sich geht, ist den Ausbildern nicht bekannt, sie können es nur durch Erfahrung und Intuition erschließen.

Bei Menschen ist etwa wichtig, die Tötungshemmung durch Unterwerfung unter die Disziplin oder die Autorität auszuschalten. Ob das "gelingt" ist erst im wirklichen Einsatz zu verifizieren, nicht beim Schießen auf eine Attrappe. Wenn der "Feind" allerdings wie bei Artilleriebeschuss, Luftangriffen oder ferngesteuerten Drohnen nicht direkt präsent ist und das eigene Leben nicht unmittelbar bedroht ist, vereinfacht dies den Übergang vom Spiel zum Ernst.

KI-Systemen sollten solche biologisch bedingten, also mit der Verkörperung verbundenen Verhaltensregulierungen prinzipiell fremd sein (Krieg mit KI-Systemen: Ohne Angst und Emotion, aber mit hoher Ungewissheit). Sie werden alles machen, was sie gelernt haben - schnell, effizient und ohne jede moralische Verzögerung. Das Lernen von KI-Systemen, die keine biologische und soziale Rückbindung besitzen, müsste also anders ablaufen als bei Menschen, um nicht in ihrem Verhalten unvorsehbare Todesmaschinen zu optimieren, deren "Logik" auch die Ausbilder nicht nachvollziehen können.