Militärroboter: Wenn Terminatoren Terroristen jagen

Robotik und künstliche Intelligenz zum Vorteil der Menschen zu nutzen, das hoffen viele. Aber die Sorge, dass es auch anders kommen könnte, hat offenbar auch im militärischen Diskurs mehr Raum gewonnen.

In Pocket speichern vorlesen Druckansicht 196 Kommentare lesen
Terminator T-800

(Bild: Dick Thomas Johnson, Lizenz Creative Commons CC BY 2.0)

Lesezeit: 13 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Das waren ungewöhnliche Töne beim Forum Unmanned Vehicles 6 der Deutschen Gesellschaft für Wehrtechnik (DWT) in Bonn-Bad Godesberg. Es könne einem angst und bange werden angesichts der technologischen Möglichkeiten, die sich abzeichneten, sagte der DWT-Vorsitzende General a.D. Rainer Schuwirth in seinem Schlusswort.

Zwar betonte er auch seine Zuversicht, dass es gelingen werde, die Technologien der Robotik und künstlichen Intelligenz zum Vorteil der Menschen zu nutzen. Aber die Sorge, dass es auch anders kommen könnte, hat offenbar auch im militärischen Diskurs mehr Raum gewonnen.

Mehr Infos

Michael Lauster (Fraunhofer INT) hatte in seinem Vortrag zum Abschluss des Forums dafür auch einige Munition geliefert – in Wort und Bild. Für die Figuren aus dem Film "Transformers", die auf der ersten Folie zu sehen waren, schien sich Lauster fast entschuldigen zu müssen. "Man findet auch in einfach gestrickten Filmen immer wieder interessante Ideen", sagte er.

Im Fall der Transformers sei das zum Beispiel die Wandelbarkeit. Natürlich sei so eine Eigenschaft wünschenswert, etwa in Gestalt tauchfähiger Flugzeuge. In seinem Überblick über Robotertechnologien in zukünftigen militärischen Szenarien, bei dem er sich in Anlehnung an den Science-Fiction-Autor Arthur C. Clarke bewusst über die Grenzen des derzeit Möglichen hinaus wagte, bot Lauster ein beeindruckendes Panorama: von riesigen autonomen Flugzeugträgern und fliegenden Mutterschiffen, die kleinere Fluggeräte transportieren (Darpa Gremlins, BEA Transformers), über Drohnen, die sich wie Raubvögel Soldaten im Flug greifen, zu "Smart Dust" – winzigen, kaum wahrnehmbaren Partikeln, die als intelligenter Schwarm überm Feindesgebiet ausgestreut werden.

Das sei keine Science-Fiction, betonte Lauster, bereits 2015 sei es gelungen, einen kompletten Computer im Volumen von einem Kubikmillimeter unterzubringen. Miniaturisierung sei ein entscheidender Aspekt der technologischen Entwicklung, ebenso die unvermeidlich zunehmende Autonomie der Systeme. Es gebe ein hohes Potenzial für einen Rüstungswettlauf, der erheblich schwerer zu kontrollieren sein dürfte als bei den Nuklearwaffen.

Den wohlwollenden Blick auf Roboter im Kino bei gleichzeitiger Skepsis gegenüber autonomen Waffensystemen teilt Lauster mit André Haider vom Joint Air Power Competence Centre der Nato. Mit ihm konnten wir am Rande der Tagung über Terminatoren auf der Leinwand und in realen Kriegseinsätzen sprechen.

heise online: Herr Haider, was genau ist das "Joint Air Power Competence Centre" der Nato, bei dem Sie beschäftigt sind?

André Haider: Das JAPCC ist ein sogenanntes Centre of Excellence der Nato. Die Nato hat vor etwas über zehn Jahren festgestellt, dass sie Institutionen braucht, die sich mit Erfahrungen aus Einsätzen und mit militärischen Problemen auf wissenschaftliche Weise und unabhängig beschäftigen. Wenn Sie in der militärischen Hierarchie stehen, können Sie Ihre Meinung selten ungezwungen oder unbeeinflusst äußern. Die Centres of Excellence, von denen wir 2005 das erste waren, sollen diese Freiheit schaffen und sogar ausdrücklich andere Sichtweisen vertreten und zur kritischen Diskussion auffordern.

André Haider vom Joint Air Power Competence Centre der Nato: "Natürlich wollen wir eine solche Maschine, die Entscheidungen über Leben und Tod trifft, nicht haben."

So bin ich zwar Angehöriger der Bundeswehr, bin aber für meine derzeitige Tätigkeit an die NATO abgestellt. Das JAPCC beschäftigt sich mit dem gesamten Bereich der Luftkriegsführung, wozu mittlerweile auch der Weltraum und die Cyber Security gehören. Unsere Aufgabe ist es, unabhängige, ergebnisoffene Studien zu erstellen, entweder auf Anfrage eines NATO Mitgliedsstaates oder auch in Eigeninitiative sofern wir ein aus unserer Sicht dringliches Problem addressieren wollen.

heise online: Sie hatten nebenbei eine Bemerkung fallen lassen, wonach der Film "Terminator" sich dichter an der Realität bewegt, als allgemein angenommen wird. Das hat mich dann doch etwas überrascht, denn unter zivilen wie militärischen Robotikfachleuten werden diese Hollywood-Visionen in der Regel eher gehasst. Wie kommen Sie zu Ihrer Einschätzung?

Haider: Wir haben jetzt eine Studie zur zunehmenden Automatisierung von Waffensystemen angefertigt. Dabei geht es vorrangig um Drohnen, aber Automatisierung findet natürlich auch in vielen anderen Bereichen statt. Die Aufgabe war, herauszufinden, ob autonome Waffensysteme mit dem Völkerrecht vereinbar sind oder hierzu in Konflikt stehen, weil vielleicht irgendwann ein selbstständiger Roboter eine Entscheidung über Leben und Tod treffen könnte.

In dem Zusammenhang haben wir uns auch die öffentliche Meinung zu den moralischen und ethischen Aspekten des Themas angeschaut und sind natürlich sehr schnell bei Filmen wie "Terminator" gelandet. In der öffentlichen Wahrnehmung wird der Terminator ja als eine völlig außer Kontrolle geratene Maschine dargestellt, die nicht mehr beherrschbar ist und Tod und Vernichtung bringt. Aber wenn man sich den Film einmal aus einer völlig anderen Perspektive anschaut, nämlich dergestalt, dass der vom Roboter gejagte John Connor ein international gesuchter hochrangiger Terrorist wäre, sieht die Sache plötzlich anders aus und der Film erhält eine völlig neue Dimension.

Die Nato-Allianz tut ja nichts anderes: Wir jagen Terroristen. Wir versuchen, gezielt diejenigen Individuen auszuschalten, die in der terroristischen Hierarchie weit oben stehen. Wir wollen der Schlange den Kopf abschlagen, um die Strukturen zu Fall zu bringen. Militärisches Vorgehen ist heute tatsächlich oftmals Jagd auf ein Individuum. Das geschieht vorrangig mit unbemannten Luftfahrzeugen oder Drohnen, mit denen Gebiete überwacht und die Verhaltensweisen einzelner Zielpersonen aufgeklärt werden, die in letzter Konsequenz auch gezielt getötet werden sollen – sagen wir das ruhig so direkt, ich denke ein offener und ehrlicher Sprachgebrauch in diesem Bereich täte uns allen gut.

Durch die Langzeitaufklärung des Ziels und das hierdurch erkennbare "Pattern of Life" kann ein gezielter Angriff erfolgen und Kollateralschaden minimiert, bestenfalls ausgeschlossen werden. Arnold Schwarzenegger als Terminator agiert nicht anders. Er rastet ja nicht aus, sondern verfolgt ein klar vorgegebenes Ziel, nämlich John Connor zu töten, und geht dabei – zumindest anfänglich – sehr strukturiert vor. Lassen wir das Effektkino einmal außer Acht, folgt er teilweise sogar den Prinzipien des Völkerrechts, sein legitimes Ziel – den angenommenen Terroristen Connor – auszuschalten und dabei Kollateralschaden möglichst zu minimieren oder auszuschließen. Es gibt sogar Szenen, in denen er durch Erfragen des Names versucht die Identität seines Ziels zu verifizieren, bevor er es liquidiert.

Natürlich wollen wir eine solche Maschine, die Entscheidungen über Leben und Tod trifft, nicht haben. Die technischen Entwicklungen zielen heute darauf ab, so viel Autonomie wie möglich zu erreichen, um den Menschen zu entlasten, auch bei Waffensystemen, aber die letzte Entscheidung über das Abfeuern einer Waffe und das Töten eines Menschen, hat der Soldat persönlich treffen. Innerhalb der Nato-Staaten ist das Konsens.

heise online: Kann man diese Grenze wirklich so klar ziehen? Lassen Sie mich ein anderes Filmbeispiel nennen: Im Juli 1987 kam der Film "RoboCop" in die amerikanischen Kinos. Im darauf folgenden Frühjahr trat der Kreuzer "USS Vincennes" seinen Dienst im Persischen Golf an, eines der ersten Schiffe, das mit dem automatischen Verteidigungssystem Aegis ausgestattet war. Wegen dieser Ausrüstung und dem aggressiven Auftreten des Kommandanten bekam das Schiff rasch den Namen "RoboCruiser" – und wurde ihm auf tragische Weise gerecht, als es eine iranische Passagiermaschine fälschlicherweise als Bedrohung identifizierte und abschoss. Den Befehl dazu gab der Kommandant, aber ist dieses Unglück nicht letztlich Folge eines fatalen Zusammenspiels von Mensch und Maschine? Schleicht sich die maschinelle Intelligenz nicht nach und nach in die vermeintlich menschlichen Entscheidungen ein?

Haider: Den Vorfall kenne ich nicht im Detail. Aber das Aegis-System muss im Friedensbetrieb durch einen menschlichen Bediener ausgelöst werden. Es kann in einen vollautomatischen Betrieb versetzt werden, z.B. wenn ein offener Konflikt vorliegt, Freund und Feind klar definiert sind und sich keine zivilen Maschinen im gesperrten Luftraum befinden. Das System erkennt anhand der ballistischen Flugbahn die auf das zu schützende Schiff anfliegende Geschosse und wird dann ohne Zutun des Bedieners feuern. Der Bediener wechselt von der Rolle des Autorisierenden zu der des Übersteuernden, der einen Angriff dann nur noch abbrechen kann. Es geht hier um Reaktionszeiten von wenigen Sekunden, die einen Menschen schlichtweg überfordern. Dennoch trägt der Mensch weiterhin die Verantwortung. Der Kommandant hat ja autorisiert, dass das System in den automatischen Modus versetzt wurde.

heise online: Das Stichwort "Reaktionszeit" möchte ich gern aufgreifen. Muss die Bewaffnung von Robotern, auch wenn sie heute noch ferngelenkt werden, nicht unvermeidlich zu autonom feuernden Robotern führen, weil früher oder später Reaktionszeiten gefordert sein werden, die über Fernsteuerung nicht zu erreichen sind?

Haider: Die Technik ist heute schon so weit, dass wir ein vollautomatisches System bauen könnten. Die große Herausforderung ist die im Völkerrecht gebotene Unterscheidung zwischen Zivilisten, anderen geschützten Personenkreisen und Kombattanten. Das ist technisch ausgesprochen komplex. Auch der Mensch versagt hier regelmäßig in heutigen komplexen Lagen, bei denen Terrorist und Zivilist kaum zu unterscheiden sind. Die voll autonome Entwicklung wird spätestens hier aufhören, weil das Völkerrecht vor der Einführung neuer Waffensysteme ausgiebige Tests der Zuverlässigkeit und rechtlichen Konformität verlangt, die aus meiner Sicht nicht zu bestehen sind. Das ist die rechtliche Seite. Auch moralisch halte ich es für undenkbar, die Entscheidung über die Tötung eines Menschen einer Maschine zu überlassen. Das ist auch Konsens innerhalb der Nato.

heise online: Nun geht es in kriegerischen Konflikten darum, dem Gegner seinen Willen aufzuzwingen. Was ist mit Akteuren, die sich nicht ans Völkerrecht halten und uns mit autonomen Waffensystemen angreifen?

Haider: Wir müssen differenzieren, warum wir Autonomie wollen, wo sie Sinn macht und zulässig ist und wo eine rechtliche oder ethische Grenze überschritten wird. Wo wir sie in der Tat wollen, ist bei allen nicht-tödlichen (non-lethal) Verwendungen. Mit einer autonomen aber unbewaffneten Drohne, die ein Gebiet überwacht, hat niemand ein Problem. Das wird im Völkerrecht auch gar nicht behandelt. Überall, wo Autonomie uns einfach Arbeit abnimmt, ohne irgendwem Schaden zuzufügen, ist das in Ordnung.

Beim autonomen Einsatz von Waffen müssen wir das differenzierter betrachten. Autonomie im defensiven Bereich ist durchaus sinnvoll. Das zuvor erwähnte Aegis-System ist rein defensiv und operiert unter dem Recht der Selbstverteidigung. Ähnliches ist denkbar für die Verteidigung eines Kampfflugzeugs, das vom gegnerischen Radar erfasst und verfolgt wird. Das gilt international unstrittig als feindlicher Akt. Ein autonomes System könnte jetzt unter dem Recht der Selbstverteidigung reagieren und die Radarstation zerstören. Ähnliche Situationen mögen sich im Luft-zu-Luft-Kampf mit einer anderen Maschine ergeben. Das Problem der Unterscheidung zwischen Zivilist und Kriegsteilnehmer stellt sich hier nicht, weil ganz klar eine feindliche Handlung vorliegt.

Der gezielte, offensive Einsatz von Waffen steht unter einem ganz anderen Schirm. Hier sind etliche Regularien zu beachten, was technisch derzeit nicht möglich und moralisch nicht akzeptabel ist. Also, zusammengefasst: Autonomie ist bei allen nicht-tödlichen Anwendungen erstrebenswert. Beim defensiven Waffeneinsatz wird sie zweckmäßig und zukünftig vielleicht auch akzeptiert sein – dies muss aber gesellschaftlich sicherlich noch diskutiert werden. Beim offensiven Waffeneinsatz ist Autonomie nach meiner und einhelliger Meinung in der Nato nicht mit unseren Wertevorstellungen vereinbar.

heise online: Lässt sich diese Position halten, auch wenn ein Gegner massiv so eine Technologie entwickelt?

Haider: Im defensiven Bereich werden uns möglicherweise die erforderlichen schnelleren Reaktionszeiten in Richtung Autonomie zwingen, um der autonomen Aggression etwas entgegensetzen zu können. Ich kann nicht für die Nationen außerhalb der Nato sprechen. Aber wir wissen, dass es andere Sichtweisen auf Werte und Normen gibt und dass die Hemmschwellen zur Entwicklkung offensiver autonomer Systeme variieren.

Es sind derzeit Studien in Arbeit, die sich dieses Problems annehmen, insbesondere ob und wie sich heutige Verteidigungsmaßnahmen und die damit verbundenen Technologien ändern müssten um gegen autonome Waffen noch wirksam zu sein.

heise online: Für wie aussichtsreich halten Sie die Verhandlungen über ein Verbot autonomer Waffensysteme, die derzeit bei den Vereinten Nationen in Genf laufen?

Haider: Das kann ich nicht einschätzen. Ein Verbot oder zumindest eine einschränkende Regelung für den offensiven Einsatz würde jedenfalls dem Wertekanon der Nato-Nationen entsprechen und auch durch mich uneingeschränkt befürwortet. Aber die Schwierigkeit hierbei ist, dass ein internationaler Vertrag nur für die Nationen gilt, die ihn unterzeichnet und ratifiziert haben. Es gibt viele internationale Verträge, die nicht von allen Staaten unterzeichnet wurden, zum Beispiel das Verbot von Streubomben oder Landminen. Die Nichtunterzeichner sind dann auch frei von entsprechenden Verpflichtungen.

Das wird auch für den Vertrag gelten, der in Genf ausgehandelt wird anders als für das –Völkergewohnheitsrecht, worunter grob gesagt alle Genfer Konventionen fallen. Diese sind bindend für alle Staaten. Es bleibt abzuwarten, welche Nationen am Ende unterzeichnen. Nehmen Sie das Klimaabkommen: Manche unterschreiben, manche nicht – und manche ziehen ihre Unterschrift sogar wieder zurück (jk)