KI 2019: "Züge die aufeinander zurasen" – Warnungen vor KI fürs Militär

Militärische KI-Anwendungen dürften die dramatischsten Auswirkungen haben, werden aber eher selten erörtert. In Kassel haben sich Forscher damit beschäftigt.

In Pocket speichern vorlesen Druckansicht 97 Kommentare lesen
KI 2019: Züge die aufeinander zurasen – Warnungen vor KI-Entwicklungen fürs Militär

Vorstellung einer militärischen Drohne

(Bild: Airbus)

Lesezeit: 5 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Auch wenn die militärischen Anwendungen von Künstlicher Intelligenz zu denen mit den potenziell dramatischsten Auswirkungen zählen, werden sie in der Öffentlichkeit vergleichsweise selten erörtert. Zur Eröffnung eines Workshops zu dem Thema im Rahmen der KI 2019 listete dessen Ko-Organisator Jürgen Altmann (TU Dortmund) einige politische Strategiepapiere zum Thema KI auf, etwa von OECD oder G20, in denen militärische Aspekte überhaupt nicht vorkommen. Andere, darunter auch die KI-Strategie der Bundesregierung, erwähnen sie allenfalls am Rande. Dabei drohe durch die verstärkte militärische Nutzung von KI eine Destabilisierung der internationalen Beziehungen, erklärte er.

Die Erwartung kurzfristiger militärischer Vorteile befördere einen Rüstungswettlauf mit unabsehbaren Konsequenzen. So könnten automatisierte Lagebeurteilungen die Eskalation von Konflikten erheblich beschleunigen. Nuklear bewaffnete Staaten, die ihre Fähigkeit zum Vergeltungsschlag gefährdet sehen, könnten sich schneller zum Abfeuern ihrer Atomraketen entschließen.

Dabei ist das Militär nicht der Vorreiter der Entwicklung. Dimitri Scheftelowitsch (TU Dortmund) verwies auf die Besonderheiten von Militärtechnologie, bei der Sicherheit eine sehr große Rolle spiele, was wiederum zu langen Entwicklungszyklen führe. Eines der modernsten Kampfflugzeuge, die F-22, arbeite aus diesem Grund mit Prozessoren, die der Leistungsfähigkeit der im zivilen Bereich längst veralteten i486-CPU entsprächen. Der gegenwärtige Stand der KI werde das Militär wahrscheinlich in 10 bis 20 Jahren erreichen, vermutete Scheftelowitsch.

Gleichwohl dürften die spezialisierten militärischen Lösungen keinesfalls unterschätzt werden. Zudem müssten sich nicht-staatliche Akteure weniger mit Zertifizierungsfragen beschäftigen und könnten neue Technologien daher schneller aufgreifen. So sei auch der angebliche Drohnenangriff auf eine Ölraffinierie in Saudi-Arabien vermutlich mit kommerziell leicht verfügbarer Technik erfolgt.

Bemühungen zur Regulierung der Technologie, die seit 2014 informell im Rahmen der Convention on Certain Conventional Weapons (CCW) der Vereinten Nationen geführt und 2017 als Group of Governmental Experts (GGE) ein formelles Mandat bekamen, kommen indessen nicht voran. Florian von Keller (Conscious Coders) warf daher die Frage auf, ob die GGE noch das richtige Forum sei, um einem Rüstungswettlauf entgegenzuwirken.

Thea Riebe (TU Darmstadt) warf einen genaueren Blick auf die dort bislang erfolgten Diskussionen, die sich insbesondere am Begriff der "Meaningful Human Control" (sinnvolle menschliche Kontrolle) über automatisierte Waffensysteme verhakten. Eine Inhaltsanalyse von 43 Dokumenten habe ergeben, dass Zeit, Vorhersagbarkeit und Zuverlässigkeit als wichtigste Kriterien solcher Systeme betrachtet würden. Bei der Forderung nach sinnvoller Kontrolle durch Menschen werde zumeist ein hierarchisches Verhältnis angenommen, bei dem die Technik dem Menschen klar untergeordnet sei.

Jascha Bareis (Humboldt Institut für Internet und Gesellschaft) empfahl, die besonderen kulturellen Traditionen und geopolitischen Positionen der verschiedenen Akteure zu berücksichtigen, um ihr Verhalten bei den Verhandlungen besser zu verstehen. Die Unsicherheiten hinsichtlich der Definitionen zentraler Begriffe wie "Autonomie" oder "Intelligenz" würden von Teilnehmern der Debatte gezielt genutzt, um sie zu verschleppen. So folge China offenbar dem Dogma der drei Kriegsebenen, die dem Gegner einen Waffengang irrational erscheinen lassen sollen. Diese drei Ebenen seien die rechtliche, die mediale und die psychologische. Der Vorstoß auf der rechtlichen Ebene besteht demnach darin, einem Verbot autonomer Waffensysteme grundsätzlich zuzustimmen, diese Systeme aber so zu definieren, dass reale Entwicklungen davon nicht betroffen wären.

Während daher weiter an militärischer KI gearbeitet werde, demonstriere China in öffentlichen Medien eine ambivalente Haltung zu dieser Technologie. Psychologisch bemüht sich das Land, seine potenziellen Gegner durch eine Konzentration auf asymmetrische Kriegführung abzuschrecken, bei der Schwärme von Kamikaze-Drohnen zum Einsatz kommen sollen.

Mit der taktischen Nutzung abwegiger Definitionen steht China allerdings nicht allein. In einer Keynote am Nachmittag verwies Jürgen Altmann auf Formulierungen des britischen wie auch des deutschen Verteidigungsministeriums, die so gefasst sind, dass sie eigene Entwicklungsvorhaben nicht blockieren. Für das deutsche Verteidigungsministerium etwa müssen Waffensysteme lernfähig sein und über Selbstbewusstsein verfügen, um als autonom gelten zu können. So etwas sei auf lange Sicht nicht realisierbar, sagte Altmann, während mit Systemen, die der 2012 vom US-Verteidigungsministerium formulierten Definition genügten, in den nächsten zehn Jahren zu rechnen sei: Demnach seien autonome Waffensysteme solche, die, einmal aktiviert, ihre Ziele ohne weitere menschliche Einwirkung auswählen und bekämpfen könnten.

Ohne wirksame Regulierung und Beschränkungen würden die USA, Russland und China in den kommenden Jahren wie drei mächtige Züge aufeinander zu rasen, befürchtet Altmann. Man müsse insbesondere die USA daran erinnern, dass nationale Sicherheit nur durch die Organisation internationaler Sicherheit gewährleistet werden könne. Ohne massiven öffentlichen Druck werde das aber wohl kaum gelingen.

Lesen Sie zur KI 2019 auch bei heise online:

(mho)