Scheinheiligkeit von KI-Wissenschaftlern

Bild: DoD

KI-Wissenschaftler rufen zum Boykott einer südkoreanischen Universität auf, die mit einem Rüstungskonzern KI-basierte Waffensysteme entwickeln will

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

In Südkorea wollen der Rüstungskonzern Hanwha Systems und die Staatliche Universität Korea Advanced Institute of Science and Technology (KAIST) in Daejeon KI-Techniken für Waffensysteme entwickeln und sich damit an der Entwicklung autononer Waffensysteme beteiligen. Zu dem Zweck wurde ein gemeinsames Forschungszentrum an der Universität im Februar eröffnet. An dem "Forschungszentrum für die Konvergenz von nationaler Verteidigung und Künstlicher Intelligenz sollen 25 KAIST-Wissenschaftler und Wissenschaftler des Rüstungskonzerns zusammenarbeiten.

Nach Auskunft von Hanwha stehen vier Aufgaben im Vordergrund: die Entwicklung eines KI-basierten Kommando- und Entscheidungssystems, eines KI-Algorithmus für die Steuerung von unbemannten U-Booten, eines KI-basierten Flugtrainingssystems und einer KI-basierten Technik zur Verfolgung und Erkennung von Objekten. Die vier Projekt sollen bereits am Ende des Jahres abgeschlossen sein. Eine entsprechende Mitteilung über die Forschungsziele wurde von KAIST wieder von der Website gelöscht.

Obgleich in vielen Ländern, allen voran in den USA, Russland und China, schon länger an der Entwicklung von militärischen KI-Systemen und autonomen Waffensystemen gearbeitet wird (Autonome militärische Systeme ersetzen zunehmend menschliche Entscheidung), haben nun 57 Wissenschaftler aus 29 Ländern zu einem Boykott von KAIST aufgerufen. Der Organisator Toby Walsh, ein Computerwissenschaftler von der University of New South Wales in Sydney, warnt, dass solche KI-Systeme zu autonomen Waffen wie Drohnen, U-Booten, Raketen oder Roboter führen.

In dem Brief wird bedauert, dass eine "anerkannte Institution wie KAIST versucht, den Rüstungswettlauf durch die Entwicklung solcher Waffen zu beschleunigen". Und das in der Zeit, in der gerade auf der Ebene der Vereinten Nationen im Rahmen der Konvention über bestimmte konventionelle Waffen verhandelt werde, wie sich die Bedrohung durch autonome Waffensysteme (tödliche autononome Waffensysteme - LAWS) begrenzen lässt. Überdies hätten 2015 Tausende von KI-Experten einen offenen Brief an die Vereinten Nationen geschrieben, in dem sie ein Verbot von autonomen Waffensystemen forderten. Einen ähnlichen Brief haben letztes Jahr Gründer von KI- und Robotik-Unternehmen geschrieben.

Die Unterzeichner des Briefs erklären, dass sie jede Zusammenarbeit mit KAIST und seinen Wissenschaftlern boykottieren werden, bis die Universität zusichert, dass das Zentrum "keine autonomen Waffen ohne bedeutsame menschliche Steuerung" entwickelt. Mit einem Brief, den der KAIST-Präsident an die Wissenschaftler geschickt hatte, wollen sich diese nicht zufrieden geben, obgleich er dort schrieb: "KAIST hat keinerlei Absichten, sich an der Entwicklung von tödlichen autonomen Waffensystemen und Kampfrobotern zu beteiligen."

In dem Brief der Wissenschaftler wird davor gewarnt, dass autonome Waffensysteme ermöglichen werden, dass Kriege schneller und in größerem Umfang als jemals zuvor geführt werden". Sie könnten als Terrorwaffen und von Despoten gegen unschuldige Menschen eingesetzt werden. Sie würden "jede moralische Zurückhaltung ausschalten". Das scheint das Hauptargument gegen autonome Waffensysteme zu sein, weswegen man suggeriert, die Kriegsführung sei ethischer, wenn es noch eine "bedeutsame menschliche Steuerung" gebe.

Sind autonome KI-basierte Waffensysteme "böse"?

Die Auseinandersetzung darüber, ob KI-basierte Waffensysteme autonom "böse" und nur mit Einbeziehung eines Menschen "on the loop" eher zu verantworten sind, scheint jedoch zunehmend ein Scheingefecht zu sein. Auch die Entscheidungen eines autonomen KI-Systems sind vorgegeben oder werden durch gesteuertes Maschinenlernen übernommen, insofern würden diese zwar selbständig entscheiden, da kein Mensch mehr einen Knopf zur Freigabe drückt, aber Menschen verantworten weiterhin die Entscheidungskette. Der Glaube, dass Menschen von vorneherein moralischer Krieg führen, ist natürlich Unsinn, zumal Menschen grausam massenmörderisch vorgehen können, während Maschinen höchstens kaltblütig Regeln ausführen (Töten Menschen besser als Maschinen?).

Dass eine Kriegsführung akzeptabler sein soll, bei der KI-basierte Waffensysteme noch den Eingriff eines Menschen verlangen, erscheint weltfremd. Theoretisch könnten die Menschen natürlich einen angeratenen Angriff abbrechen, aber da das KI-System viele Informationen auf eine Weise berechnet, deren Komplexität und Geschwindigkeit von Menschen nicht nachvollziehbar ist, dürfte zu erwarten sein, dass die Menschen "on the loop" schnell die vorgeschlagene Entscheidung befürworten werden.

Die Argumentation der "Experten", die sich gegen autonome Waffensysteme wenden, aber die Entwicklung der KI ansonsten befürworten, ist wohl auch als scheinheilig zu bezeichnen. KI-Techniken können immer für militärische Anwendungen eingesetzt werden. Das lässt sich gar nicht vermeiden, sofern nicht KI- und Robotik-Forschungsstellen sowieso auch mit Mitteln aus den Verteidigungsministerien gefördert werden.

Für die Opfer von Angriffen ist es freilich völlig unerheblich, ob ein Mensch oder eine KI Waffen abfeuert. Es kommt wohl eher darauf an, warum und wie ein Krieg gegen wen geführt wird, als darauf, ob bestimmte Waffen geächtet werden. Bei ungerichteten Waffensystemen wie Streubomben, die Zivilisten gefährden, ist eine Ächtung nachvollziehbar, bei KI-Systemen, die auch präzise bestimmte Ziele verfolgen können, ist das schon sehr viel schwieriger, zumal wenn das Kriegsrecht implementiert ist.

Die Kritiker der autonomen Waffensysteme aus der KI-Forschung scheinen den amerikanischen Standpunkt einzunehmen. Das Pentagon hat betont, keine vollständig autonomen Waffensysteme einsetzen zu wollen, Menschen sollten immer die letzte Entscheidung haben (US-Verteidigungsminister: "Niemals" volle Autonomie für Kampfroboter). Damit will man aber nur Kritik ausschalten und die Entwicklung von militärischen KI-Systeme ebenso wie autonome Techniken fördern (Krieg mit KI-Systemen: Ohne Angst und Emotion, aber mit hoher Ungewissheit). Die Strategie, angeblich auf volle Autonomie zu verzichten, war allerdings unter Barack Obama verbreitet, Donald Trump dürfte auch hier weniger zimperlich sein.

Die Diskussion ähnelt der prinzipiellen Diskussion über Waffen, die oft "dual-use" sind. Messer lassen sich für viele Zwecke einsetzen, auch zur Tötung von Tieren und Menschen. Sollte man also Messer verbieten oder deren Anwendung auf Menschen, um sie töten oder zu verletzen?

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.