Ächtung von Killer-Robotern: Das Zeitfenster schließt sich

Seite 2: Wer ist schuld?

Inhaltsverzeichnis

AWS werfen laut der Untersuchung "zahlreiche Fragen auf, sowohl was ihre Übereinstimmung mit den Prinzipien des humanitären Völkerrechts angeht als auch die Auswirkungen, die ihre Verbreitung und ihr Einsatz entfalten könnten". Dies beziehe sich gerade auch "auf potenzielle Rüstungsdynamiken, die internationale Sicherheit sowie regionale und strategische Stabilität". "Je autonomer Waffensysteme agieren, je weniger sie also direkter menschlicher Steuerung unterliegen, desto weniger eindeutig lassen sich ihre Aktionen einem menschlichen Akteur zuordnen", halten die Forscher fest. Das werde immer dann problematisch, wenn AWS "zivile und unverhältnismäßige militärische Schäden anrichten". Dies wäre selbst bei einem völkerrechtskonformen Einsatz solcher Waffen nie ganz auszuschließen.

Völlig unklar bleibe dabei, wer dann die Verantwortung trage. Die von Militärs oft bemühte Formel vom "human in the loop", wonach der Mensch in der Entscheidungsschleife alles im Griff behalte, erweist sich den Verfassern zufolge beim näheren Hinsehen "als bei Weitem nicht differenziert genug, um Fragen der Handlungsurheberschaft" bei der Interaktion von Menschen mit immer intelligenter werdenden Maschinen zu klären.

Das alternative Konzept "Meaningful Human Control" lehnten Staaten wie die USA ab. Auch Russland scheine künftig AWS ohne große Schranken entwickeln zu wollen. Durch den Einsatz solcher Systeme "könnte so eine Situation entstehen, in der sich das technisch vermittelte Töten von Menschen wie ein zufälliges Naturereignis oder ein Unfall ausnimmt", warnen die Experten. "Es gäbe dann niemanden mehr, der dies mit seinem Gewissen vereinbaren müsste." Dies führten Kritiker für ihren Standpunkt ins Feld, "dass AWS ethisch verwerflich wären und nicht eingesetzt werden sollten". Da sei etwas dran: Aus moralischer Sicht überwögen die Zweifel an der Zulässigkeit und Legitimität autonomer Waffen jedenfalls deutlich.

Derzeit existiert laut den Forschern vor allem im Rahmen der Genfer Gespräche zur Konvention über bestimmte konventionelle Waffen noch "ein Fenster von Möglichkeiten, um mit einem international abgestimmten, zielgerichteten Vorgehen die möglichen Gefahren einzuhegen, die AWS mit sich bringen könnten". Dieses schließe sich aber "sukzessive mit fortschreitender technologischer Entwicklung sowie der kontinuierlichen Integration autonomer Funktionen in Waffensysteme aller Art". Damit würden Strukturen gefestigt und Fakten geschaffen, "die regulierende Eingriffe erschweren oder sogar verhindern".

Zudem seien die Schwierigkeiten groß, die sich bei der Rüstungskontrolle mit Blick auf AWS stellen, meinen die Autoren. "Im Lichte der Implikationen, mit denen die internationale Gemeinschaft durch autonome Waffensysteme zukünftig konfrontiert werden könnte", erscheine es trotzdem "dringend geboten, diese Herausforderungen unverzüglich anzugehen und Lösungen zu entwickeln". Entsprechende politische und diplomatische Initiativen erforderten "einen langen Atem und einen breiten Diskurs unter Einbezug von Wissenschaft und Zivilgesellschaft".

Die Enquete-Kommission für KI des Bundestags hatte unlängst empfohlen, Killer-Roboter international zu ächten. Ein entsprechender Antrag aus der Opposition fand aber keine Mehrheit im Parlamentsplenum.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(kbe)