US-Verteidigungsminister: "Niemals" volle Autonomie für Kampfroboter

Das 2015 gegründete Joint Interagency Combined Space Operations Center (JICSpOC) auf der Schriever Air Force Base in Colorado ist das erste Organisationsprojekt der Third Offset Strategy. Beteiligt sind das Strategic Command, der Geheimdienst National Reconnaissance Office, das Air Force Space Command, das Air Force Research Laboratory, alle anderen Geheimdienste und Datenprovider der Privatwirtschaft. Bild: DoD

In der "Third Offset Strategy" soll unter anderem die Entwicklung autonomer Systeme vorangetrieben werden, um die technische Überlegenheit der USA zu sichern

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Das Pentagon setzt auf Roboter und Künstliche Intelligenz (Pentagon drängt auf Entwicklung und Einführung autonomer Systeme). US-Verteidigungsminister Ashton Carter machte auch auf der TechCrunch-Konferenz in San Francisco letzte Woche noch einmal deutlich, dass das US-Militär viel Geld in autonome Systeme investieren wird. Aber, so wehrte er gegenüber Sydney Freedberg von Breakingdefense.com ab, man werde "niemals" voll autonome Kampfroboter in den Krieg schicken.

Ob man das glauben mag, ist eine andere Sache. Carter will weiter enorm technisch aufrüsten, um das US-Militär weiter weltweit zumindest militärtechnisch allen anderen Streitkräften überlegen zu halten. Autonomie, also die Ergänzung und Entlastung der Menschen, ist zentral für die von Carter verfolgte "Third Offset Strategy", die die Überlegenheit der US-Streitkräfte bei sinkendem Militärausgaben und aufholenden Konkurrenten sichern soll.

Als erste "Offset Strategy" gilt die nukleare Aufrüstung am Beginn des Kalten Krieg, als zweite die vom damaligen Verteidigungsminister Harold Brown Ende der 1970er Jahre ausgerufene Innovationsstrategie, die zu Präzisionsbomben, Stealth-Flugzeugen, dem GPS-System und neuen Satelliten zur Aufklärung und Kommunikation führte.

Bei der noch von Chuck Hagel Ende 2014 ausgerufenen "Offset Strategy" geht es um ein langfristiges Programm, das in noch engerer Zusammenarbeit mit der Privatwirtschaft als bisher neben der Autonomie von Systemen Robotik, Miniaturisierung, Big Data und neue Herstellungsformen wie 3D-Druck. 2017 sind 3,5 Milliarden US-Dollar dafür vorgesehen. Carter setzt die Schwerpunkte nicht nur auf neue Techniken wie Mensch-Maschine-Systeme, Simulationssysteme zum Training und natürlich Kapazitäten für den Cyberwar und die elektronische Kriegsführung, sondern auch auf Weiterentwicklungen der Präzisionswaffen, der Unterwassertechniken und der Abwehrsysteme.

Schon letztes Jahr hatte der stellvertretende Verteidigungsminister Bob Work herausgestellt, dass nicht völlig autonome Systeme, sondern Mensch-Maschine-Systeme im Vordergrund stünden. Man will, so führte Work aus, die Zusammenarbeit von Mensch bzw. Soldat und Maschine so gestalten, dass "die Maschinen den Menschen hilft, bessere Entscheidungen und diese schneller zu treffen". Schon im "globalen Antiterrorismusnetzwerk" würden Menschen, Drohnen, Computer und Spezialeinheiten kooperieren (Das Pentagon setzt auf die Mensch-Maschine-Kooperation).

Man weiß, wie auch aus dem kürzlich veröffentlichten Bericht des Defense Science Board (DSB) über "Autonomie" hervorgeht, dass es in der Öffentlichkeit große Vorbehalte gegen autonome Systeme gibt. Da will man nicht vorpreschen und schlug als Definition von autonomen Systemen solche vor, die "unabhängig unterschiedliche Handlungsstränge zusammenstellen und auswählen können, um Ziele auf der Grundlage ihres Wissens und ihres Verständnisses der Welt, von sich selbst und der Situation zu erreichen".

US-Verteidigungsminister Ash Carter will beruhigen.

Aber selbst hier schränkt der Verteidigungsminister ein, um niemanden zu verschrecken: "In vielen Fällen, und ganz bestimmt, wenn es zur Anwendung von Gewalt kommt, wird es niemals wirkliche Autonomie geben, weil es dort immer Menschen geben wird." Das meint, ähnlich wie derzeit bei bewaffneten Drohnen, dass ein Mensch, wie es so schön heißt, "in the loop" sein soll, der etwa entscheidet, wann der Abzug gedrückt wird, möglicherweise in Zukunft auch nur, um in ansonsten autonom ablaufende Prozesse prinzipiell und bei Bedarf noch eingreifen zu können. Man könnte sich vorstellen, dass letztlich nur noch so getan wird, als wäre ein menschlicher Geist in oder hinter der der Maschine, um Vertrauen zu schaffen. Wobei, was heißt schon Vertrauen in Kampfrobotersysteme? Das Problem scheint jetzt noch zu sein, weswegen das Pentagon vor Jahren bereits in den Krieg in den Irak gesendete Bodenkampfroboter schnell wieder zurückgezogen hatte, dass selbst die Soldaten, die sie einsetzen, misstrauisch sind. Sie könnten schließlich auch Opfer von friendly fire werden, wenn das autonome System irgendwie durcheinander kommt.

Carter wird daher noch konkreter: "Um welche Mischung (von bemannten und unbemannten Systemen) es sich auch handelt, es wird immer menschliche Entscheidung und Urteilskraft geben. Beides ist notwendig und angemessen."

Auf die Frage, ob diese Haltung nicht zum Nachteil werden könnte, wenn andere Länder autonome Waffensysteme einsetzen, die dann schneller wären als Mensch-Maschine-Systeme, antwortete Carter nicht mehr ganz so eindeutig: "Unabhängig davon, ob es ein Soldat, ein bemanntes Flugzeug oder ein autonomes System Gewalt anwenden soll, dann will man, dass die Information vor Ort genutzt wird, um den größten Erfolg zu erzielen. Aber man bereitet die Dinge vor, gibt Befehle und Anweisungen, dass alles, was getan wird, mit den Gesetzen des bewaffneten Konflikts und der amerikanischen Militärdoktrin übereinstimmt." Das klingt dann schon eher so, dass der Mensch "in the loop" eigentlich derjenige sein könnte, der die Befehle für bestimmte Einsätze gibt und dann Soldaten oder Roboter ausschickt, die möglichst gehorchen sollen. Das tun Menschen auch oft nicht - und die "in the loop" auch nicht, also etwa die Piloten, die eine Kampdrohne steuern und die Waffen abfeuern.

Carter versuchte weiter das heikle Thema zu umschiffen, indem er darauf hinwies, dass auch viele wichtige militärische Missionen ohne den Einsatz tödlicher Gewalt auskommen. Da sollen dann auch die ersten Anwendungen einer autonomen Entscheidungsfindung stattfinden, beispielsweise im Cyberwar oder in der elektronischen Kriegsführung. Freilich, auch wenn hier nicht traditionelle Waffen eingesetzt werden, die direkt töten oder zerstören, können auch Cyberangriffe zu Schäden und Opfern führen. Carter betont jedoch, dass autonome Systeme am ehesten in diesem Bereich kurz- und mittelfristig Anwendungen sein werden, um Netzwerke oder Datenverkehr zu scannen, die Verbreitung eines Computervirus zu verfolgen oder einen Feind mit einem Radar zu lokalisieren.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.