Digitaler Terror: Sicherheitsforscher warnt vor IS 2.0 mit KI-Waffen

Der Sicherheitsexperte Jean-Marc Rickli sieht mit Sorge, dass Militärs Waffen verstärkt mit KI aufrüsten. Die Technik dürfte Terroristen in die Hände fallen.

In Pocket speichern vorlesen Druckansicht 145 Kommentare lesen
Justiz soll verschlüsselte Terror-Kommunikation auswerten können
Lesezeit: 6 Min.
Inhaltsverzeichnis

Dass der internationale Wettlauf um die Vorherrschaft bei Künstlicher Intelligenz (KI) längst das Militär in Ländern wie den USA, Russland und China erfasst hat, lässt Jean-Marc Rickli, Leiter des Bereichs "globale Risiken" beim Genfer Zentrum für Sicherheitspolitik (GCSP) schlecht schlafen. Die Gefahr einer Proliferation der vernichtenden Technik an "nicht-staatliche Akteure" sei groß, befürchtete er auf der Digital Society Conference der European School of Management and Technology (ESMT) in Berlin. Er sei sich sicher: "Wir werden einen Islamischen Staat 2.0 sehen", dem einschlägige Waffen in die Hände fallen könnten.

Die Strategie, Sicherheitszäune um Raketen oder Kampfflugzeuge hochzuziehen, funktioniere bei einem Rüstungsarsenal mit KI-Komponente kaum mehr, führte Rickli aus. Eingesetzte Algorithmen seien oft öffentlich, dazu kämen etwa immer mehr zivile Drohnen, die sich in fliegende Monster umwandeln ließen. Es wäre ein Albtraum, wenn ein sich neu formierender IS solche Fähigkeiten in die Hände bekommen könnte. Der Terrormiliz sei ein Einsatz solcher Kampfmittel zuzutrauen, da er etwa bereits mit international geächteten Chemiewaffen experimentiert habe.

Der IS war dem Experten zufolge seit 2014 auch die erste Organisation, die es verstanden habe, unter anderem mit Enthauptungsvideos und Anwerbemagazinen "die sozialen Medien zu militarisieren". Der Technologieeinsatz solcher Gruppen müsse nicht perfekt sein, sondern nur ausreichen, etwa über einen Propagandafeldzug den Gegner zu schockieren. "Weapons of Mass Effect" seien seitdem generell in der Reichweite auch nicht-staatlicher Kombattanten.

Jean-Marc Rickli, Sophie-Charlotte Fischer und Ulrike Franke (v.l.n.r.) sehen große Gefahren in der Proliferation KI-gestützter Waffen an "nicht-staatliche Akteure".

(Bild: heise online / Stefan Krempl)

Als Spezifikum künftiger KI-Waffen machte Rickli aus, dass diese mit unmenschlicher Geschwindigkeit arbeiteten. Wer sie verwende, gelange damit rasch auf die schiefe Bahn. Zugleich sah er das Risiko, dass solche kaum mehr vorhersehbaren Systeme internationale Abrüstungsverträge komplett aushebeln und das Konzept des Erstschlags wieder hoffähig machen könnten.

Schon wer über einschlägige Fähigkeiten spreche, lege damit – ähnlich wie bei gängigen Cyberwaffen – zugleich auch Angriffsflächen offen, gab der Sicherheitsforscher zu bedenken. Die russische Haltung sei daher lange gewesen, dass solche mehr oder weniger autonom agierenden Systeme beim Militär gar nicht existierten. Inzwischen behaupte Moskau, dass die Kriegsführung damit "sauberer" werde, da die Technik eigene Kämpfer von gegnerischen leichter unterscheiden könne.

"Künstliche Intelligenz kann kleinen, auch nicht-staatlichen Akteuren mehr Macht verleihen", ging Ulrike Franke vom European Council on Foreign Relations (ECFR) mit Rickli konform. Die internationale Stabilität leide zudem unter der Tatsache, dass bei Cyberattacken mit KI-Komponenten eine Attribution schwierig sei. Die "von Aktivisten dominierte" EU-Debatte zu dem Thema bezeichnete sie als "unterentwickelt", da diese sich meist nur um "Killer-Roboter" und damit den Extremfall drehe. Hierzulande sei es auf Seiten der Bundesregierung gar "tabu", über das Thema zu sprechen. In der nationalen KI-Strategie gebe es daher "nur eine Zeile" zu militärischen Nutzungsmöglichkeiten.

Als anderes Extrem in Europa machte Franke Frankreich aus, das nach den USA eine eigene militärische KI-Strategie veröffentlicht habe. Die großen Unterschiede zwischen den benachbarten Staaten seien problematisch, da die EU bereits an teils recht ambitionierten KI-getriebenen militärischen Lösungen arbeite. Als Beispiel nannte die Wissenschaftlicher das geplante französisch-deutsche Kampfjet-Projekt "Future Combat Air System" (FCAS), das als Eurofighter-Nachfolger auch mit begleitenden Drohnen ergänzt werden solle.

An die EU-Kommission appellierte Franke, KI-Ansätze fürs Militär zu harmonisieren und dabei "rote Linien" aufzuzeigen. Die Nato müsse zudem auf eine "potenzielle Interoperabilitätslücke" achten, wenn zunächst nur die USA ihre Streitkräfte mit klaren KI-Fähigkeiten hochrüsteten und andere Mitgliedsstaaten außenvorblieben.

John C. Mallery vom MIT ist besorgt angesichts dessen, was alles schief gehen könnte beim Einbau von KI in Drohnen, Bomben oder Raketen.

(Bild: heise online / Stefan Krempl)

Die Industrie müsse in einschlägige Abrüstungsgespräche in Genf miteinbezogen werden, forderte Sophie-Charlotte Fischer, die am Mercator-Kolleg letale autonome Waffensysteme erforscht. Der Privatsektor sei bei KI führend gegenüber dem Militär. Konzerne wie Amazon, Google, Microsoft oder Palantir wüssten daher am besten, in welche Richtung sich die Technologie entwickle.

Auf die Selbstregulierung des Marktes dürfe die Welt hier aber nicht bauen, meinte die Wissenschaftlerin. So hätten sich die das Feld dominierenden US-Firmen zwar meist bereits "ethische Prinzipien" für KI auferlegt. Bei Google laute eines davon explizit nach dem Mitarbeiteraufruhr rund um das Pentagon-Projekt Maven, keine autonomen Waffen zu entwickeln. Über einen Wagniskapital-Arm unterstützten die Kalifornier aber trotzdem noch einschlägige Projekte.

Was alles schief gehen könnte beim Einbau von KI in Drohnen, Bomben oder Raketen, listete John C. Mallery vom Labor für Künstliche Intelligenz am MIT auf. Neuronale Netze etwa seien recht einfach täuschbar, sodass sie Bilder falsch einordneten. Möglich seien Angriffe auf die Integrität der Trainings- oder Sensordaten, Kommunikationsverbindungen könnten gestört, Schwächen in den Erkennungsfunktionen von Algorithmen ausgenutzt werden.

Generell arbeiteten Programmroutinen nach vorgefertigten Lösungsmustern, die gerade bei Entscheidungen über Leben und Tod in Echtzeit immer wieder mal mit fatalen Folgen fehlschlagen dürften, konstatierte der US-Forscher. Es gebe zwar Ansätze, KI "erklärbar" zu machen oder die verwendeten Daten zu verschlüsseln. Demgegenüber stünden das ganze System belastende Risiken, dass selbst eine Entscheidungsschleife mit dem Menschen am Drücker versagen und damit die Kontrolle verlorengehen könnte. Insgesamt beklagte Mallery "die Dialektik der Informationalisierung": die Vorteile jeder digitaltechnischen Fähigkeit trügen immer auch das Risiko in sich, gegen den Nutzer verwendet zu werden.

Siehe dazu auch:

(jk)