Elon Musk warnt mit Robotik- und KI-Chefs vor autonomen Waffensystemen

Bild: DoD

Aus nicht wirklich bekannten Gründen wurde ein Expertentreffen zum Thema bei den Vereinten Nationen verschoben. Was aber treibt die CEOs wirklich an, ein Verbot zu fordern?

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Der Milliardär Elon Musk, der das Raumfahrtunternehmen SpaceX und der Elektroautohersteller Tesla leitet, verfolgt seit geraumer Zeit das Projekt, auch als Mahner von technischen Entwicklungen aufzutreten. Insbesondere warnt er auf apokalyptische Weise vor Entwicklungen der Künstlichen Intelligenz, die er als größte Bedrohung der Menschheit bezeichnete, und vor allem von autonomen Kampfsystemen. Dabei ist eines seiner Geschäftsziele die Entwicklung einer direkten Gehirn-Computer-Schnittstelle, die den Menschen zum Teil des maschinellen Systems machen würde, Musk denkt dabei an "einvernehmliche Telepathie" durch Kopplung der Gehirne über eine Computerschnittstelle (Elon Musk will direkten Zugriff auf die Gehirne und verspricht Telepathie).

Jetzt hat er mit mehr als hundert anderen CEOs von Robotik- und KI-Unternehmen vor allem aus den USA und Großbritannien einen kurzen offenen Brief verfasst, der erneut vor einem Wettrüsten mit autonomen Waffensystemen warnt, die töten können. Veröffentlicht wurde der Brief zum Beginn der International Joint Conference on Artificial Intelligence (IJCAI) in Melbourne. Man fühle sich besonders verantwortlich, weil die Firmen letztlich in der Gefahr stünden, selbst autonome Waffen zu entwickeln.

Die Unterzeichner begrüßen die Einrichtung einer Gruppe von Regierungsexperten zum Thema Lethal Autonomous Weapon Systems (LAWS) bei den Vereinten Nationen im Rahmen des Übereinkommen über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen. Dies hat vor allem die von NGOs initiierte Kampagne für ein Verbot von autonomen Waffensystemen vorangebracht.

Die Gruppe wird nun im November 2017 tagen, der geplante Termin im August wurde abgesagt. Den Vorsitz wird der indische Botschafter Amandeep Singh Gill einnehmen, hinter den sich die Unterzeichner des offenen Briefs stellen. Der kritisierte die Absage des Treffens im August, weil angeblich einige Staaten ihre Gelder nicht an die Vereinten Nationen überwiesen haben. Ob das aber der wirkliche Grund ist? Offenbar besteht Sorge, dass auch das jetzt im November vorgesehene Treffen nicht stattfinden wird. Interesse von Staaten, die wie Russland, die USA, Israel, China und andere an militärischen autonomen Systemen arbeiten, dürfte bestenfalls gering sein, eine Verbotsdiskussion wird wohl eher abgelehnt.

Autonome Waffensysteme könnten zur "Dritten Revolution in der Kriegsführung" führen, heißt es im Brief. Kämpfe würden auf einer größeren Ebene als jemals zuvor und mit einer Geschwindigkeit führen, mit der die Menschen nicht mehr mitkommen. Man habe nicht mehr lange Zeit: "Wenn die Büchse der Pandora einmal geöffnet ist, wird sie schwer wieder zu schließen sein." Autonome Waffensysteme könnten "Terrorwaffen sein, Waffen, die Despoten und Terroristen gegen unschuldige Bevölkerungen wenden, und Waffen, die sich auf unerwünschte Weise verhalten, wenn sie gehackt werden".

Töten Menschen besser als Maschinen?

Man kann sich allerdings schon fragen, warum es für Menschen besser sein soll, wenn sie von ferngesteuerten Waffen wie Drohnen oder auch von konventionellen Waffen wie Bomben oder Maschinengewehren getötet oder verletzt werden. Ferngesteuerte Waffensysteme wie Drohnen werden von Terroristen und Despoten benutzt, um Menschen zu töten, auch sie können gehackt werden. Ob es schlimmer ist, wenn ein KI-System mit programmierten Regeln oder aufgrund von maschinellem Lernen entscheidet, wann eine Hellfire-Rakete auf ein Ziel abgefeuert wird, als wenn dies ein Menschen macht, dem das Leben der Menschen Tausende von Kilometern entfernt nicht sonderlich wichtig ist oder der abgelenkt und müde vor dem Bildschirm sitzt?

Handelt der Soldat, nur weil er ein Mensch ist, moralischer, wenn er auf Befehl aus sicherer Entfernung von einer Drohne eine Rakete gegen einen mutmaßlichen Gegner oder auch einen Unschuldigen abfeuert, als wenn dies ein autonomes System nach bestimmten Regeln macht?

Ein Interesse daran, die weitere Entwicklung der KI zu beschränken, werden die meisten der CEOs, die den Brief unterschrieben haben, ebenso wenig haben wie daran, ferngesteuerte oder teilautonome Waffensysteme oder auch "konventionelle" Waffen zu entwickeln, die immer letaler sind, oder überhaupt am Tropf der Rüstungsgelder zu hängen. Programme und Roboter, die zunächst für zivile Anwendungen entwickelt werden, können ebenso für militärische Zwecke verwendet werden. Im Unterschied zu Atomwaffen, die ganz andere Kapazitäten, Gelder und letztlich eine staatliche Struktur benötigen, sind Roboter oder KI-Anwendungen als Dual-Use-Techniken von vielen mit geringem Aufwand einzusetzen, was man bereits mit der Bewaffnung von Minidrohnen durch den IS gesehen hat.

Möglicherweise dient der offene Brief nur dem Interesse, sich als kritisch gegenüber einer Entwicklung darzustellen, die noch nicht ausgereift ist und die man als die große Gefahr dämonisiert, um ungestört als "die Guten" an den zivilen und militärischen KI- und Robotik-Projekten weiter forschen und daran verdienen zu können. Wer autonome Fahrzeuge entwickelt, hat auch ein System entwickelt, das eine Waffe abfeuern könnte.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.