Gefährliche Killerroboter und Antimateriebomben

Während der ICRA wies KI-Professor Toby Walsh auf die risikoreiche Entwicklung autonomer Waffensysteme hin. Verträge und Regularien fehlen.

In Pocket speichern vorlesen Druckansicht 124 Kommentare lesen
Gefährliche Killerroboter und Antimateriebomben

(Bild: Shutterstock/Usa-Pyon)

Lesezeit: 3 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Autonome Waffensysteme bergen mannigfaltige Gefahren. Während der Robotikkonferenz ICRA argumentierte Toby Walsh, Professor für Künstliche Intelligenz von der University of New South Wales, ruhig und sachlich, weshalb die Entwicklung autonomer Systeme weiterhin genau beobachtet werden müsse.

In seiner Keynote im Rahmen der Robotikkonferenz ICRA lieĂź Walsh keinen Zweifel daran aufkommen, wie sehr ihn die Entwicklung hin zu autonomen Waffensystemen besorgt. Er war einer der Initiatoren eines offenen Briefes, der vor dieser Technologie warnt und im Juli 2015 von mehreren tausend Teilnehmern der weltweit wichtigsten KI-Konferenz IJCAI unterzeichnet wurde.

Ein starkes Signal, das aber enttäuschend wenig Wirkung gezeigt hat, wie Walsh mit Videos verschiedener Waffensysteme, die derzeit entwickelt und erprobt werden, illustrierte: So fuhr das unbemannte US-Kriegsschiff "Sea Hunter" im Oktober 2018 autonom von San Diego nach Hawaii und zurück. Wenige Monate davor hatte Russland den Roboterpanzer Uran-9 unter realen Gefechtsbedingungen in Syrien getestet. Die Türkei will noch in diesem Jahr Schwärme autonomer Killerdrohnen an der syrischen Grenze einsetzen.

Es sind Schwärme, das sei an dieser Stelle ergänzt, wie sie in einem Positionspapier der Bundeswehr als "taktische unbemannte Flugsysteme (TaUAS)" beschrieben werden. Eine Konzeptstudie des Fraunhofer IAIS sieht dafür als Plattform unter anderem einen Oktokopter mit paarweise übereinander angeordneten Rotoren vor, eine Art fliegende Panzerfaust, bis zu 60 km/h schnell, die ihre Raketen bis zu 1000 Meter weit abfeuern kann.

Solche Roboterschwärme seien Massenvernichtungswaffen, so Walsh. Sie destabilisierten eine ohnehin instabile Welt und machten die Kriegführung weder effizienter noch humaner. Die Verhandlungen bei den Vereinten Nationen über eine Kontrolle solcher Waffensysteme kämen nur sehr langsam voran. Dafür formiere sich aber in der Tech Community wachsender Widerstand, auch bei großen Firmen. Und er hoffe, dass die Covid-19-Pandemie dazu beitrage, dass Öffentlichkeit und Politik vielleicht auch bei dieser Frage mehr auf die Wissenschaft höre.

Natürlich ließe sich Technologie nicht verbieten, beantwortete Walsh eine der während des Vortrags gesammelten Fragen. Es gehe um die Anwendung, die geächtet werde. "Wir haben nicht die chemische Forschung eingeschränkt, als wir chemische Waffen geächtet haben", sagte er. "Wir wollen auch nicht die Forschung zu Autonomie beschränken." Bei der Räumung von Minenfeldern könnten autonome Roboter sehr wertvolle Dienste leisten.

Wie sich beweisen ließe, ob eine Waffe wirklich autonom handle, lautete eine weitere Frage. Die klare Linie, die keinesfalls überschritten werden dürfe und die es zweifellos gäbe, sei leider in einer Grauzone verborgen, räumte Walsh dazu ein. Er halte wenig davon, etwas definieren zu wollen, was man noch gar nicht richtig verstanden habe. Es gäbe auch für Kernwaffen keine verbindliche Definition. "Und das ist gut so", betonte er. Schließlich habe sich die Technologie von den Spaltungs- zu den Fusionsbomben grundlegend verändert. "Falls es eines Tages Antimateriebomben geben sollte", fragte Walsh zurück, "sollen sie dann von Kernwaffenverträgen ausgeschlossen werden, weil sie deren Definition nicht genügen?"

(kbe)