Gegen autonome Waffen: KI-Entwickler unterzeichnen Selbstverpflichtung

Autonom agierende KI-Waffen können Menschen selbstständig töten. Führende KI-Entwickler verpflichten sich, an solchen Systemen nicht mitzuarbeiten.

In Pocket speichern vorlesen Druckansicht 33 Kommentare lesen
Drohne MQ-9 Reaper, bewaffnet mit  lasergesteuerten Bomben und Hellfire-Raketen

(Bild: US Air Force)

Lesezeit: 3 Min.

Das im britischen Cambridge und US-amerikanischen Massachusetts ansässige Future of Life Institute (FLI) hat am Mittwoch eine Selbstverpflichtung ins Leben gerufen, die verhindern soll, dass sich Unternehmen, Ingenieure, Wissenschaftler und andere Personen an der Entwicklung, dem Bau, Handel oder der Benutzung mit Künstlicher Intelligenz (KI) ausgestatteter autonomer Waffensysteme beteiligen. Das Versprechen haben bisher 176 Organisationen und 2515 Einzelpersonen unterzeichnet – darunter Google DeepMind, die European Association for Artificial Intelligence (EurAI), einige Universitäten sowie einzelne Wissenschaftler und Unternehmerpersönlichkeiten wie Tesla- und SpaceX-Chef Elon Musk.

Max Tegmark, Präsident des Future of Life Instituts, hatte den Start der Selbstverpflichtung, die als öffentliches Versprechen angelegt ist und online gezeichnet werden kann, im schwedischen Stockholm auf der jährlich stattfindenden International Joint Conference on Artificial Intelligence (IJCAI) angekündigt.

"KI besitzt ein enormes Potenzial, der Welt zu helfen – wenn wir ihren Missbrauch stigmatisieren und verhindern. KI-Waffen, die autonom entscheiden, Menschen zu töten, sind genauso abscheulich wie Biowaffen und sollten auf die gleiche Weise behandelt werden", sagte Tegmark. Er freute sich angesichts der ersten Unterzeichner der Selbstverpflichtung, dass in der KI-Entwicklung Tätige einen ersten Schritt vom Reden zum Handeln unternehmen und damit eine Politik umsetzen würden, die von Politikern bisher nicht umgesetzt wurde. Tegmark spielt dabei auf einen geforderten Bann von autonom agierenden KI-Waffensystemen an, der auf einem UN-Treffen im April von lediglich 26 Ländern – darunter als einziger größerer Staat China – unterstützt wurde.

Im Zentrum der Selbstverpflichtung steht, dass Waffensysteme nicht selbstständig über Leben und Tod eines Menschen entscheiden dürfen. Eine solch ethisch-moralische Entscheidung müsse dem Menschen vorbehalten bleiben. Dazu komme, dass Waffensysteme, die selbstständig Ziele auswählen und bekämpfen können, sich destabilisierend auf die Weltordnung auswirken könnten. Derartige Waffen seien nur schwer vom Menschen kontrollierbar. Hacker wären in der Lage, KI-Waffensysteme zu übernehmen.

In der Selbstverpflichtung rufen die Unterzeichner Regierungen dazu auf, Gesetze und international gültige Normen zu entwickeln, um eine Zukunft ohne tödliche autonome Waffen zu entwickeln.

Tegmark geht davon aus, dass sich die von vielen führenden KI-Entwicklern unterzeichnete Selbstverpflichtung auf das nächste UN-Treffen im August auswirken und dazu führen könnte, dass internationale Vereinbarungen getroffen werden, um autonom agierende Waffensysteme zu bannen.

Das Future of Life Institute ist eine 2014 gegründete Non-Profit-Organization. Ziel der Forschungsorganisation ist es, existenzielle Risiken für die Menschheit zu erkennen und zu vermeiden – insbesondere solche Risiken, die durch Künstliche Intelligenz verursacht werden könnten. Der NGO gehören namhafte Mitglieder wie beispielsweise der Mitbegründer von Skype, Jaan Tallinn, und Elon Musk an. Auch der verstorbene Wissenschaftler Stephen Hawking gehörte zu den Unterstützern der FLI. (olb)