Ächtung von Killer-Robotern: Das Zeitfenster schließt sich

Forscher mahnen in einer Studie für den Bundestag, autonome Waffensysteme rasch zu regulieren. Ihre Legitimität sei wegen unklarer Verantwortung zweifelhaft.

In Pocket speichern vorlesen Druckansicht 26 Kommentare lesen

(Bild: sibsky2016 / Shutterstock.com)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Die zunehmende Nutzung von automatisierten oder künftig autonomen Waffensystemen (AWS) könnte einen Paradigmenwechsel darstellen und die Kriegsführung im 21. Jahrhundert revolutionieren. Davon geht das Büro für Technikfolgen-Abschätzung beim Bundestag in einer jetzt veröffentlichten Analyse aus. Die Politik müsse zeitnah handeln, um ein Terminator-Szenario mit außer Kontrolle geratenen Killer-Robotern zu verhindern.

Bei AWS handle es sich längst nicht mehr um Science-Fiction, erläutern die Autoren auf über 260 Seiten. Die enormen technischen Fortschritte, die in den vergangenen Jahren in der Robotik und der Künstlichen Intelligenz (KI) erzielt wurden, hätten das Konzept "autonom agierender Waffen nun an die Schwelle zur konkreten Umsetzung gerückt".

"Automatisierung und Autonomie werden bereits heute für eine breite Palette an Funktionen bei Waffensystemen genutzt", heißt es in der Studie. "Dazu gehören die Suche und Identifizierung potenzieller Ziele mithilfe von Sensordaten, die Zielverfolgung, Priorisierung und Bestimmung des Zeitpunkts für den Angriff auf diese Ziele sowie die Steuerung für den Zielanflug".

Bislang erfolgten die Auswahl möglicher Treffer, die Angriffsentscheidung und die Freigabe des Waffeneinsatzes durch einen menschlichen Kommandeur beziehungsweise Operator. Ein AWS wäre in der Lage, alle diese Schritte selbsttätig und ohne menschliche beziehungsweise mit nur minimaler menschlicher Mitwirkung durchzuführen, konstatieren die Wissenschaftler.

Dies hätte entscheidende militärische Vorteile: Ein autonomes System benötige keine Kommunikationsverbindung mit einer Basisstation und erlaube schnellere Reaktionszeiten in Gefechtssituationen, da keine Verzögerungen durch die Laufzeiten einer Datenübertragung und durch die die Reaktionszeiten eines menschlichen Entscheiders aufträten. Eine erhöhte Autonomie von Waffensystemen stehe daher "in allen technologisch fortgeschrittenen Ländern auf der Agenda".

AWS werfen laut der Untersuchung "zahlreiche Fragen auf, sowohl was ihre Übereinstimmung mit den Prinzipien des humanitären Völkerrechts angeht als auch die Auswirkungen, die ihre Verbreitung und ihr Einsatz entfalten könnten". Dies beziehe sich gerade auch "auf potenzielle Rüstungsdynamiken, die internationale Sicherheit sowie regionale und strategische Stabilität". "Je autonomer Waffensysteme agieren, je weniger sie also direkter menschlicher Steuerung unterliegen, desto weniger eindeutig lassen sich ihre Aktionen einem menschlichen Akteur zuordnen", halten die Forscher fest. Das werde immer dann problematisch, wenn AWS "zivile und unverhältnismäßige militärische Schäden anrichten". Dies wäre selbst bei einem völkerrechtskonformen Einsatz solcher Waffen nie ganz auszuschließen.

Völlig unklar bleibe dabei, wer dann die Verantwortung trage. Die von Militärs oft bemühte Formel vom "human in the loop", wonach der Mensch in der Entscheidungsschleife alles im Griff behalte, erweist sich den Verfassern zufolge beim näheren Hinsehen "als bei Weitem nicht differenziert genug, um Fragen der Handlungsurheberschaft" bei der Interaktion von Menschen mit immer intelligenter werdenden Maschinen zu klären.

Das alternative Konzept "Meaningful Human Control" lehnten Staaten wie die USA ab. Auch Russland scheine künftig AWS ohne große Schranken entwickeln zu wollen. Durch den Einsatz solcher Systeme "könnte so eine Situation entstehen, in der sich das technisch vermittelte Töten von Menschen wie ein zufälliges Naturereignis oder ein Unfall ausnimmt", warnen die Experten. "Es gäbe dann niemanden mehr, der dies mit seinem Gewissen vereinbaren müsste." Dies führten Kritiker für ihren Standpunkt ins Feld, "dass AWS ethisch verwerflich wären und nicht eingesetzt werden sollten". Da sei etwas dran: Aus moralischer Sicht überwögen die Zweifel an der Zulässigkeit und Legitimität autonomer Waffen jedenfalls deutlich.

Derzeit existiert laut den Forschern vor allem im Rahmen der Genfer Gespräche zur Konvention über bestimmte konventionelle Waffen noch "ein Fenster von Möglichkeiten, um mit einem international abgestimmten, zielgerichteten Vorgehen die möglichen Gefahren einzuhegen, die AWS mit sich bringen könnten". Dieses schließe sich aber "sukzessive mit fortschreitender technologischer Entwicklung sowie der kontinuierlichen Integration autonomer Funktionen in Waffensysteme aller Art". Damit würden Strukturen gefestigt und Fakten geschaffen, "die regulierende Eingriffe erschweren oder sogar verhindern".

Zudem seien die Schwierigkeiten groß, die sich bei der Rüstungskontrolle mit Blick auf AWS stellen, meinen die Autoren. "Im Lichte der Implikationen, mit denen die internationale Gemeinschaft durch autonome Waffensysteme zukünftig konfrontiert werden könnte", erscheine es trotzdem "dringend geboten, diese Herausforderungen unverzüglich anzugehen und Lösungen zu entwickeln". Entsprechende politische und diplomatische Initiativen erforderten "einen langen Atem und einen breiten Diskurs unter Einbezug von Wissenschaft und Zivilgesellschaft".

Die Enquete-Kommission für KI des Bundestags hatte unlängst empfohlen, Killer-Roboter international zu ächten. Ein entsprechender Antrag aus der Opposition fand aber keine Mehrheit im Parlamentsplenum.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(kbe)