Maschinelle Kriegführung: Vom Drohnenschwarm zum Hyperwar

Experten warnten im Bundestag vor einem Wettrüsten bei autonomen Waffensystemen und forderten effektive politische Schritte zum Einhegen der Technik.

In Pocket speichern vorlesen Druckansicht 35 Kommentare lesen

(Bild: sibsky2016 / Shutterstock.com)

Lesezeit: 8 Min.
Inhaltsverzeichnis

Sachverständige waren sich am Mittwoch bei einem Fachgespräch zu autonomen Waffensystemen (AWS) im Bundestag einig, dass Tötungsentscheidungen nicht an Maschinen delegiert werden dürften. Vielmehr müsste das menschliche Gewissen weiterhin mit solchen existenziellen Abwägungen belastet werden. Die Frage, wie sich der Kontrollverlust des Menschen und damit das Szenario von Killer-Robotern am besten verhindern lasse, beantworteten die Forscher aber unterschiedlich.

Hochautomatisierte Systeme auf See, an Land und in der Luft seien bereits vielfach im Einsatz oder in der Entwicklung, berichtete Frank Flemisch vom Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE). Deutschland sei daran etwa mit dem Future Combat Air System (FCAS) und dem Leopard-2-Nachfolger beteiligt. Oft lasse sich bei einschlägigen Lösungen auch schon "ein Regler nach rechts in Richtung höhere Autonomie schieben".

.

Das besonders Gefährliche daran im militärischen Bereich sieht Flemisch, der ein Vertreter Deutschlands in mehreren Nato-Gremien ist, in der beschleunigten Kriegsführung, die in einen "Hyperwar" mit Cyberkomponenten und Angriffen durch große Mengen autonom gesteuerter Systeme sowie letztlich in einen "nuklearen Holocaust" münden könnte. Die USA hätten dazu nicht nur schon Weißbücher veröffentlicht, sondern etwa auch einen Perdix getauften Dohnenschwarm demonstriert. Diesen bewaffneten unbemannten Flugobjekten, die sich wie eine Horde Hornissen anhörten, würden Zielkoordinaten eingespielt, die sich blitzschnell auch wieder ändern ließen.

Die mit solchen Systemen oder der russischen Hyperschall-Rakete Avangard verknüpfte "Büchse der Pandora" ist Flemisch zufolge deutlich sichtbar. Unklar sei, wie schnell welche Macht daraus "neue Dinge" heraushole. Die Bundeswehr mache sich jedenfalls Sorgen, dass sie von solchen Systemen überrannt werde wie die polnische Reiterei von deutschen Panzern zu Beginn des 2. Weltkriegs. Zugleich gebe es auch Bedenken, in ein "Waffenrennen" hineingetrieben zu werden, dass man etwa gegen China vielleicht gar nicht gewinnen könne.

Auch das Bundesverteidigungsministerium lasse sich aber Lücken offen, um in Maschinengeschwindigkeit kämpfen zu können, monierte der Dortmunder Friedensforscher Jürgen Altmann. Von AWS spreche es nur, wenn ein Kampfsystem in erster Linie gegen Personen gerichtet sei sowie ohne jegliche menschliche Einflussnahme und Kontrolle sein Umfeld wahrnehmen, beurteilen und lernen könne. Dies eröffne dem deutschen Militär viele Forschungs- und Entwicklungsoptionen. Die Definition des Internationalen Roten Kreuzes sei viel weiter gefasst. Sie beschreibe ein System, "das ohne menschlichen Eingriff Ziele auswählen und angreifen kann".

Wer AWS vorantreibt, tut dies Altmann zufolge "nicht für asymmetrische Kämpfe, sondern für den großen Krieg". Längst gebe es ein "virtuelles Wettrüsten" in diese Richtung, das sehr bald real werden könnte. Neben den USA, China und Russland bereiteten sich etwa auch Pakistan und Indien auf den "Flash War" vor. Die Kosten seien dabei "nach oben offen". Selbstregulierend könnte sich höchstens auswirken, dass auch das "Militär Interesse hat zu wissen, was auf dem Schlachtfeld passiert". Die Streitkräfte seien daher "etwas gespalten".

Als "gefährlichen Höhepunkt" des Outsourcens von Aufgaben von Menschen an den Computer bezeichnete Johanna Polle vom Institut für Friedensforschung und Sicherheitspolitik AWS. Kampfsituationen könnten damit immer asymmetrischer werden, letztlich dürfte der Mensch gegen einen autonomen Tötungsroboter gestellt werden. Auf jeden Fall ließen solche Systeme, so ein menschlicher Operator überhaupt noch vorgesehen sei, "weniger Zeit für Interventionen". Eine der sicherheitspolitischen Konsequenzen sei, dass Abläufe immer schneller und autonomer würden und sich hochschaukelten.

Solche Implikationen einer Automatisierungsspirale seien "im Interesse keiner Nation", meinte Polles Institutskollege Christian Alwardt. Es gelte daher, "irgendwo Grenzen einzuziehen". Man könne AWS aus defensiver Seite auch "stören, jammen, hacken oder abschießen", aber dann sei man schon mitten in dem gefährlichen Kreislauf drin.

Die Würde des Menschen grundsätzlich verletzt sieht Bernhard Koch vom Institut für Theologie und Frieden mit tödlichen autonomen Waffen. Dazu komme eine "unakzeptable Verantwortungslücke". Aus ethischer Sicht überwögen so die Nachteile, die aus AWS resultierten, deren marginale Vorteile bei Weitem. Die Abgeordneten hätten daher allen Grund, sich für ein Verbot solcher Systeme und eine effektive Rüstungskontrolle einzusetzen.