Das Pentagon will möglichst schnell autonome Systeme

Der Defense Science Board soll einen Bericht über die wissenschaftlichen, technischen und politischen Probleme erstellen, die gelöst werden müssen, um auf allen Ebenen autonome Systeme einsetzen zu können

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Im Pentagon will man die Entwicklung der Künstlichen Intelligenz möglichst schnell vorantreiben, um autonome Waffensysteme zu entwickeln und zur Verfügung zu haben. In einem Memo an den Defense Science Board schrieb Pentagon-Staatssekretär für Beschaffung, Technik und Logistik, Frank Kendall, dass sich die "Technik der Autonomie" schnell fortentwickle, und umreißt einen Bericht, den er für den Sommer 2015 anfordert.

Future Combat Systems (FCS) Multifunctional Utility/Logistics and Equipment (MULE) Vehicle. Bild: army.mil

Er weist auf autonome Systeme wie Roboter oder Drohnen hin, bei denen Autonomie in physische Systeme integriert werde, aber auch auf IBMs KI-System Watson, Robotik in Häfen und Minen, autonome Fahrzeuge oder automatisierte Logistik. Der DSB soll die wissenschaftlichen, ingenieurtechnischen und politischen Probleme herausarbeiten, die gelöst werden müssen, um Autonomie auf allen Ebenen der Kriegsführung nutzen zu können. Das Pentagon will wissen, ob autonome Systeme Kosten reduzieren, Effizienz steigern und den Verlust an Menschenleben - vermutlich nicht bei den Gegnern - senken können.

Besonders interessant seien die technischen und sozialen Hindernisse für einen breiten militärischen Einsatz, also für Streitkräfte, die Menschen weitgehend durch intelligente Systeme ersetzen wollen. Was ist technisch noch nicht möglich, wo sind derzeit Menschen im Schaltkreis noch erforderlich, was kann getan werden, um diese Hindernisse zu überwinden? Der Ansatz ist klar, es geht nicht mehr um die Entscheidung, ob man autonome Roboter- oder KI-Systeme auch zum Kämpfen einsetzt, sondern nur noch darum, sie möglichst schnell in allen Bereichen von Entscheidungshilfen und Planungssystemen über Logistik und Überwachung bis zu Kampfsystemen einsetzen zu können - je früher, desto besser.

Gedacht ist auch daran, den Gegner mit autonomen Systemen zu täuschen, Verwirrung auszulösen oder dessen Ressourcen zu verbrauchen. Letzteres ist ein spannender Gesichtspunkt, aber was soll man sich darunter vorstellen? Sollen Pflanzen, Tiere, Lebensmittel vernichtet, Bandbreite oder Stromversorgung reduziert werden? Interessant wird auch die Antwort auf die Frage sein, ob man eher auf einfache und billige Techniken setzen soll, die man in Massen einsetzen kann, oder auf komplexe und teure Systeme? Also, um eine Analogie zu erstellen, wann sind Massen von "dummen" Bakterien einzelnen Menschen überlegen? Und soll man Systeme erstellen, die auf bestimmte Aufgaben zugeschnitten sind, oder solche, die flexibler sind und beispielsweise mehr oder weniger autonom bzw. vom Menschen gesteuert sein können?

Nach dem Memo ist es dem Pentagon offenkundig wichtig, durch einen realistischen Ansatz die Entwicklung zu beschleunigen. Dabei stehen die technischen Fragen im Vordergrund, welche Folgen eine weitgehend automatisierte Kriegsführung mit autonomen Systemen haben könnten, klingt nur bei der Frage durch, welche Bedrohungen es geben könnte, wenn der Gegner ebenfalls über autonome Kampfsysteme verfügt. Nicht einmal ausdrücklich wird gefragt, unter welchen Bedingungen autonome Kampfroboter entscheiden sollen, ob und mit welchen Waffen sie Menschen töten dürfen. Vielleicht geht man davon aus, dass solche Einsatzregeln in die KI autonomer Systeme relativ problemlos eingearbeitet werden können und wahrscheinlich besser umgesetzt werden als von emotionsgetriebenen Menschen. Aber vermutlich ist dies den Militärstrategen erst einmal egal, die den technischen Vorsprung wahren wollen und bereit sind, dazu die Augen erst einmal verschließen.

Es wird nicht nur physische autonome Kampfsysteme geben, sondern auch softwarebasierte für den Cyberwar, die Computernetze lahmlegen oder manipulieren können, aber damit auch Kraftwerke, die Wasser- oder Stromversorgung, Industrieanlagen oder Banken, die Kommunikationsnetze oder Krankenhäuser, also weite Bereiche einer Gesellschaft mit möglicherweise globalen Folgen stören oder ausschalten. Die Komplexität ist von Menschen kaum zu übersehen, die Frage wäre, welche Künstliche Intelligenz die Folgen solcher Eingriffe beurteilen kann.

Man könnte überlegen, zur Selbstkontrolle in die Entscheidungsprozesse autonomer Systeme auch die Selbsterhaltung einzubauen, um zu hohe Kosten und zu hohe Risiken zu vermeiden, was aber auch zu Reaktionen der Selbstverteidigung führen kann, die außer Kontrolle geraten können. Und wie werden unterschiedliche materielle oder virtuelle autonome Systeme in Konflikten aufeinander reagieren, wenn sie Entscheidungen wie im Hochgeschwindigkeitshandel auf den Börsen in Bruchteilen von Sekunden treffen müssen? Ganz zu schweigen davon, dass es immer wieder Pannen und Fehlentscheidungen geben wird.

Gerne wird die Vision an die Wand gemalt, dass die autonomen Systemen sich aus der Kontrolle der Menschen wie ein Golem befreien werden, um schließlich die Menschheit zu unterwerfen oder auszulöschen. Damit ging etwa Elon Musk, der Gründer von Tesla und Space-X, im letzten Jahr hausieren, als er schrieb, man müsse sehr vorsichtig mit KI umgehen, da sie möglicherweise gefährlicher als die Atombombe sein könne. Auch Stephen Hawking warnte vor kurzem davor, dass KI, weil sie sich so schnell entwickelt, die Menschen überholen und letztlich vernichten könne: "Die Entwicklung der KI kann die Existenz der Menschheit gefährden."

Allerdings dürfte man damit die technischen Möglichkeiten überhöhen und damit verbergen, dass immer mehr Aufgaben Maschinen übergeben werden. Vermutlich ist gar nicht die Komplexität der KI-Systeme entscheidend oder die Ähnlichkeit mit menschlichen Gehirnen. Maschinenlernen basiert darauf, in Hinblick auf bestimmte Normen und aufgrund von statistischen Ergebnissen das Verhalten zu optimieren. Gefährlich könnten autonome Systemen auch dann werden, wenn sie relativ dumme Experten für bestimmte Aufgaben wie dem Töten von möglichen Gegnern und Systemen sind - und das in großen Schwärmen ohne Rücksicht ausführen.