Missing Link: Erfolglose Gespräche über Killerroboter – "Wir müssen mehr machen"

Bei den Vereinten Nationen gab es wieder keinen Konsens über den Umgang mit autonomen Waffensystemen. Ein Teilnehmer erklärt, woran das liegt.

In Pocket speichern vorlesen Druckansicht 109 Kommentare lesen
Missing Link: Gescheiterte Gespräche über Killerroboter – "Wir müssen mehr machen"

(Bild: skeeze)

Lesezeit: 14 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Wieder einmal haben Vertreter von Dutzenden Staaten keine gemeinsame Haltung zum Umgang mit sogenannten Killerrobotern. Zwar war bei den Gesprächen zu Autonomen Waffensystemen bei der Genfer Waffenkonvention der Vereinten Nationen eine Mehrheit für Verhandlungen über eine neue internationale Gesetzgebung, eine kleine Gruppe von Rüstungsmächten widersetzte sich aber. Frank Sauer ist Politikwissenschaftler an der Universität der Bundeswehr München und hat als Vertreter des Internationalen Komitees für Rüstungskontrolle von Roboterwaffen (ICRAC) teilgenommen. Im Interview erklärt er, warum es gefährlich ist, dass die Staatengemeinschaft keine gemeinsame Position zu autonomen Waffensystemen findet.

heise online: Herr Sauer, ich muss gestehen, dass meine Erwartungen von vornherein gedämpft waren, als ich hörte, dass in Genf wieder Gespräche über Autonome Waffensysteme stattfinden. Nachdem erneut keine Einigung erzielt werden konnte, denke ich, dass das auch nicht mehr rechtzeitig gelingen wird und sich diese Treffen damit eigentlich erledigt haben. Können Sie das nachvollziehen?

Frank Sauer

(Bild: Universität der Bundeswehr München)


Sauer: Ja, das kann ich nachvollziehen. Ich bin auch einigermaßen enttäuscht, was den Ausgang der letzten Gesprächsrunde betrifft. Ich verfolge die Gespräche seit 2014 und habe insgesamt den Eindruck, dass das Tempo abnimmt – was angesichts der Geschwindigkeit der technischen Entwicklung und der Risiken, die sich deutlich abzeichnen, nicht angemessen ist. Dabei sind es wohlgemerkt immer noch nur Gespräche, noch keine Verhandlungen, die auf eine Regulierung abzielen.

heise online: Wie muss ich mir so eine Gesprächsrunde über fünf bis zehn Tage bei der Genfer Abrüstungskonferenz vorstellen? Es sitzen doch nicht ständig alle Teilnehmer an einem Tisch, oder?

Sauer: Da folgen die Vereinten Nationen ihren seit Jahrzehnten eingeübten Regeln. Wie stark das strukturiert wird, liegt im Ermessen des Vorsitzenden. Das war in diesem Jahr der indische Botschafter Amandeep Gill, der nach Einschätzung vieler Teilnehmer viel, vielleicht zu viel Struktur hineingebracht hat. Alles in allem aber folgt das Ganze dem üblichen Prozedere, dass eine Rednerliste angefertigt wird, auf die sich die verschiedenen Staaten setzen lassen, um ihre Stellungnahmen abzugeben. Diese Liste wird dann abgearbeitet. Zum Schluss können sich auch Vertreter der Zivilgesellschaft äußern. Zum Ende hin muss ein Abschlussbericht verabschiedet werden, der vom Vorsitzenden und seinen Mitarbeitern geschrieben wird.

Die letzten zwei Tage des Treffens haben wir daher damit verbracht, den Entwurf dieses Berichts Zeile für Zeile, Wort für Wort, teilweise Komma für Komma durchzugehen. Obwohl diese Dokumente keinerlei bindende Wirkung haben und nichts weiter sind als eine Empfehlung an das Haupttreffen der UN-Waffenkonvention, das im Winter stattfindet, wird sehr viel um Formulierungen gerungen. Das dauerte diesmal bis 01:15 Uhr am letzten Tag des Treffens. Als Beobachter von außen fragt man sich da schon, wie daraus jemals ernsthafte Verhandlungen werden sollen. Da ist mehr politischer Wille nötig.

heise online: Gibt es ansonsten keine Diskussionen?

Sauer: Die meiste Zeit wird tatsächlich die Rednerliste abgearbeitet. Die abgegebenen Stellungnahmen werden archiviert. Gelegentlich gibt es auch ein Hin und Her von Redebeiträgen, aber zumeist erst in den späteren Abendstunden, wenn offiziell "die Uhr angehalten" wurde. Natürlich gehen die Gespräche dann trotzdem weiter und dann kann es schon mal vorkommen, dass die USA etwas sagen, China darauf antwortet, die USA wiederum darauf etwas entgegnen und China sich noch mal äußert.

So enthält das Abschlussdokument zum Beispiel eine Empfehlung für die weitere Verfahrensweise im Jahr 2019, über deren Annahme oder Ablehnung die UN-Waffenkonvention bei ihrem Treffen im November entscheiden muss. Die Empfehlung lautet: Wir reden unverbindlich weiter, nehmen uns dafür zehn Tage Zeit oder, wenn es nach Russland geht, vielleicht sogar nur fünf. Deutschland hat in den fortgeschrittenen Abendstunden am letzten Tag den Versuch gemacht, eine Formulierung unterzubringen, dass diese Gespräche in ein konkretes Dokument münden sollen. Das wurde sofort in der nächsten Wortmeldung von den USA abgeschossen."Wir sind derzeit nicht in der Lage, diesen Vorschlag zu unterstützen", sagte deren Vertreter. Damit war die Sache erledigt, weil alle Beschlüsse im Konsens erfolgen müssen.

heise online: Lassen sich in der Debatte bestimmte Hauptpositionen identifizieren?

Sauer: Es gibt zwei besonders prominente Gegner jedweden Fortschritts der Gespräche: USA und Russland. Die äußern sich am lautesten in dieser Richtung. Zu der Gruppe zählen aber auch Israel, Südkorea und neuerdings Australien. Großbritannien zeigt ebenfalls kein großes Interesse, den Status Quo zu ändern. Sie alle wollen über unverbindliche Gespräche nicht hinausgehen. Die Begründungen sind allerdings unterschiedlich.

Die USA halten es für zu früh für regulierende Maßnahmen, da die Potenziale der Technologie etwa zur Steigerung der Präzision von Waffensystemen noch nicht absehbar seien. Russland sagt, dass es eigentlich gar nichts zu diskutieren gibt, weil es so etwas wie autonome Waffensysteme gar nicht gäbe und niemals geben würde. Angesichts des im vergangenen Jahr von Kalaschnikow vorgestellten Geschützturms, der mit Gesichtserkennung gekoppelt ist, ist das schwer nachvollziehbar.

Auf der anderen Seite gibt es die 25 oder 26 Staaten, die ein völkerrechtlich bindendes Verbot autonomer Waffen fordern. Und dazwischen gibt es noch eine Reihe von Staaten, die zumindest mit dem Status Quo nicht zufrieden sind und die Gespräche fortsetzen wollen, ohne schon ein klares Ziel zu haben. Deutschland und Frankreich versuchen, systematisch einen Mittelweg auszubuchstabieren mit einer unverbindlichen Deklaration als erstem Schritt, die zu einem Verhaltenskodex führen könnte und langfristig auch zu einem Verbot.

Dieser durchaus vernünftige Ansatz birgt allerdings das Risiko, dass die Deklaration als letzter Schritt missbraucht werden könnte. So gab es zwei Wochen vor dem Treffen das Gerücht, Russland wolle sich diesem Vorschlag anschließen. Ich vermute dabei den Hintergedanken, mit der Verabschiedung einer Deklaration die gesamte Diskussion beenden zu können.

heise online: Als einziges militärisch relevantes Land hat sich China klar gegen Autonome Waffensysteme ausgesprochen. Wie ist das von anderen Teilnehmern aufgenommen worden?

Sauer: China ist der Grund, weswegen ich eben von "25 oder 26" Staaten gesprochen habe, die sich klar für ein Verbot ausgesprochen haben. In chinesischen Arbeitspapieren steht schon seit geraumer Zeit, dass das Land sich für ein Verbot der Nutzung – wohlgemerkt: nicht der Entwicklung – von autonomen Waffensystemen einsetzen will. Im April wurde das erstmals auch in eine offizielle Stellungnahme aufgenommen. Das hat zunächst einmal viele überrascht angesichts der erheblichen Investitionen die China in diesem Bereich vornimmt.

Nach den Gesprächen in Genf würde ich aber erhebliche Zweifel anmelden, ob diese Position wirklich ernst zu nehmen ist. Denn China definiert sehr genau, was unter einem autonomen Waffensystem zu verstehen ist, und umschreibt damit Waffen, die ohnehin kein Mensch einsetzen würde. Es geht dabei um fünf Kriterien. Erstens: Tödlichkeit. Zweitens: Es ist kein Mensch in den Entscheidungszyklus einbezogen, der zur Bekämpfung eines Ziels führt. Drittens: Die Unmöglichkeit, das Waffensystem abzuschalten. Viertens: Unterschiedslose Effekte – was, nebenbei bemerkt, ohnehin schon völkerrechtswidrig wäre. Und fünftens: Lernfähigkeit im Feld, die zu unvorhersehbarem Verhalten führen könnte.

Kein halbwegs vernünftiges staatliches Militär würde Waffensysteme konzipieren und einsetzen, die diese drei letzten Kriterien erfüllen. Nicht abschaltbare, unvorhersehbare Massenvernichtungswaffen – wer sollte so etwas bauen wollen? Ich vermute daher hinter der chinesischen Position ein Verwirrspiel, um die Staatengemeinschaft in Genf zu beschäftigen.

heise online: Treten bei den Gesprächen über Autonome Waffensysteme – und KI generell – möglicherweise Mängel des kollektiven Willensbildungsprozesses zutage? Ist unser politisches System mit dieser Frage überfordert?

Sauer: Die Schwierigkeit in diesem Feld hat damit zu tun, dass wir es nicht konkret mit fassbaren, physischen Waffensystemen zu tun haben, für die wir einen klaren Kriterienkatalog entwickeln und die wir mit entsprechenden Regeln belegen könnten. Im Vergleich zu Künstlicher Intelligenz im Militär und Autonomen Waffensystemen war die Rüstungskontrolle in der Vergangenheit – obwohl schon schwierig genug – geradezu einfach.

Im Nuklearbereich etwa lassen sich Trägersysteme klar identifizieren und hinsichtlich etwa ihrer Tragfähigkeit beschreiben. Wir können Raketen und Sprengköpfe zählen und prüfen, ob alles den vertraglichen Bestimmungen entspricht. Auch im konventionellen Bereich lässt sich genau definieren, was ein Kettenfahrzeug oder ein Drehflügler ist. Autonomie in Waffensystemen dagegen ist eine Funktion. Das heißt, dass auch bereits bestehende, vergleichsweise einfache Waffensysteme autonomisiert werden können. Ein Kampfflugzeug wie die F-16 kann auf autonomen Betrieb umgerüstet werden.

Oder nehmen Sie das System CARACaS (Control Architecture for Robotic Agent Command and Sensing) der US-Marine: Es kann auf jedem kleinen Boot installiert werden und macht mehrere solcher Boote zu einem autonom operierenden Schwarm, der größeren Kriegsschiffen als Geleitschutz dient. Künstliche Intelligenz hat also die Möglichkeit eröffnet, in Waffensystemen neue Funktionalitäten einzuführen. Das ist mit den alten Paradigmen der Rüstungskontrolle, die in der Regel sehr quantitativ ausgerichtet sind, sehr schwer in den Griff zu kriegen. Man muss viel stärker qualitativ über die neuen Technologien nachdenken und sich fragen, welche Funktionen sie bieten, was sie für die Kriegsführung bedeuten, wie sie das Verhältnis zwischen Mensch und Maschine verändern, um konkrete Linien hinsichtlich der Anwendungspraktik ziehen zu können.

Meiner Einschätzung nach gibt es da sehr viel Aufhol- und auch Forschungsbedarf. Aber wir müssen es tun, auch wenn es mühsam ist. Denn gegenwärtig haben wir ja gewissermaßen gerade mal den Anfang der Bugwelle erreicht. Da kommt ja noch viel mehr auf uns zu, was mit den gängigen Mechanismen nicht zu bewältigen ist, denken Sie zum Beispiel allein an Human Enhancement oder Biotechnologie. Dafür sind qualitative Rüstungskontrollparadigmen unabdingbar.

heise online: In vielen Gesprächen habe ich den Eindruck gewonnen, dass sich selbst Entscheidungsträger auf den höchsten Ebenen mehr und mehr der historischen Tragweite dieser Technologien bewusst werden. Die Entscheidungen, die wir heute treffen, werden zukünftige Generationen über Jahrhunderte beschäftigen. Dennoch spielen historische Argumente in der Debatte praktisch keine Rolle. Dabei sollten wir bei unseren politischen Führern doch wohl Geschichtsbewusstsein voraussetzen. Warum findet dieser – letztlich entscheidende – Aspekt so wenig Beachtung?

Sauer: Weil es kein Anreizsystem gibt, um diese größeren Linien zu bedenken. Ich stimme Ihnen vollkommen zu, schauen Sie sich allein die jüngst veröffentlichte Strategie der Bundesregierung zu Künstlicher Intelligenz (KI) an: Den militärischen Aspekt lässt sie vollkommen außen vor, reduziert die KI-Diskussion ansonsten auf Digitalisierungsstrategie und Industrie 4.0 und fragt sich, wie Deutschland innerhalb Europas und Europa im internationalen Vergleich beim Wettrennen um die wirtschaftliche Nutzung nicht den Anschluss verlieren. Das ist sicherlich alles richtig und wichtig, ist aber bestenfalls nur ein Teil der Geschichte und hinsichtlich der Fragen, die uns und vielen anderen Bürgern Sorgen bereiten, viel zu kurz gesprungen.

Es wird fast ausschließlich in den kurzfristigen, rein ökonomischen Anreizstrukturen gedacht. Die KI-Revolution wird auf die Frage reduziert, wie wir möglichst schnell möglichst viele marktfähige Produkte und Lösungen entwickeln können. Aber was diese Technologie mit unserer Gesellschaft macht, mit unserer Demokratie oder der Art, wie wir Krieg führen, wird nicht systematisch politisch abgebildet. Dabei haben wir mit den sozialen Medien bereits ein sehr anschauliches Beispiel: Noch vor wenigen Jahren haben viele gesagt, dass die sozialen Medien alles besser machen und die Demokratie in den letzten Winkel der Welt bringen würden.

Im Arabischen Frühling schwang die Hoffnung mit, dass die Menschen sich mit ihrer Hilfe vom Joch der Unterdrückung befreien könnten. Doch tatsächlich wurde der Aufstand von staatlicher Seite mithilfe der gleichen Technologien niedergeschlagen, die auch die Demonstranten benutzt hatten. Gleichzeitig unterminieren die sozialen Medien unseren demokratischen, pluralistischen Diskurs. Politik und Wirtschaft drücken dennoch auf die Tube, damit immer mehr Menschen diese Technologien nutzen.

Über die mittel- und langfristigen Folgen macht sich aber fast niemand Gedanken, weil es keinen systemischen Anreiz dafür gibt, weil es "nicht eingepreist" ist. Aus meiner Sicht bräuchten wir einen wirklich nachhaltigen Diskurs zu der Frage, was wir wirklich nutzen wollen und wofür. Mehr ist nicht immer besser, in der Zivilgesellschaft nicht und erst recht nicht beim Militär.

heise online: Wie geht es jetzt weiter?

Sauer: Der Rahmen der Vereinten Nationen ist sicherlich wichtig und die Gespräche in Genf werden wir weiter verfolgen müssen, ohne sich zu sehr davon deprimieren zu lassen. Wir dürfen uns aber natürlich nicht darauf verlassen, sondern müssen versuchen, in Deutschland und Europa mehr zu machen. Im Koalitionsvertrag der Bundesregierung steht ja seit 2013, dass wir Waffensysteme, die der menschlichen Verfügungsgewalt entzogen sind, kategorisch ablehnen. Dann könnten wir das doch auf nationaler Ebene schon mal festklopfen. Niemand hindert uns daran.

Das Bundesverteidigungsministerium könnte ein Leitliniendokument zur Nutzung von KI und autonomen Waffensystemen aufsetzen. Darin könnten zum Beispiel vollautonome Verteidigungssysteme, die auf Munition schießen, zugelassen sein. Systeme, die auf Infanterie, Panzer, Schiffe oder andere Objekte schießen, in denen sich Menschen aufhalten könnten, würden dagegen einer stärkeren menschlichen Kontrolle unterworfen sein. Das muss auch gar nicht in Stein gemeißelt sein. In dem Dokument könnte ja stehen, dass es alle fünf Jahre überprüft wird.

Angesichts der klar formulierten politischen Position, die auch vom General Ludwig Leinhos auf der Münchner Sicherheitskonferenz noch einmal unterstrichen wurde, verstehe ich nicht, was die Bundesregierung davon abhält. Ein solcher Schritt hätte sicherlich auch Auswirkungen auf die Diskussionen in Genf. Es gibt also schon Handlungsspielraum, aber es braucht auch den Willen, ihn zu nutzen. (mho)