Militärroboter: "Schwierige Entscheidungen"

Viele KI-Forscher wollen nicht an autonomen Waffensystemen arbeiten. Gerade das kann dazu führen, dass fragwürdige Regimes die besten Waffen bekommen, warnt der Autor eines neuen Buches.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
„Schwierige Entscheidungen“

(Bild: US Army)

Lesezeit: 8 Min.
Von
  • Will Knight

Mehr als 2400 KI-Forscher haben vor kurzem eine Erklärung unterzeichnet, in der sie versprechen, keine sogenannten autonomen Waffen zu bauen – Systeme also, die selbstständig entscheiden, wen sie töten. Dem vorausgegangen war die Entscheidung von Google, einen Vertrag mit dem US-Verteidigungsministerium nicht zu verlängern, in dessen Rahmen das Unternehmen mit KI-Hilfe Drohnen-Aufzeichnungen analysierte. Viele seiner Mitarbeiter hatten gegen dieses Projekt Maven protestiert.

Paul Scharre, Autor des neuen Buches Army of None: Autonomous Weapons and the Future of War, hält das nicht für die beste Vorgehensweise: Seiner Meinung nach müssen KI-Forscher mehr tun, als sich nur abzuwenden, wenn sie etwas bewirken wollen.

Scharre war Soldat der US-Armee in Irak und Afghanistan und arbeitet jetzt als Senior Fellow am Center for a New American Security. KI-Experten sollten sich mit Politikern und Militärs austauschen, um ihnen zu erklären, warum sie besorgt sind, und ihnen helfen, die Grenzen von KI-Systemen zu verstehen.

Mit Will Knight, Redakteur der US-Ausgabe von Technology Review, sprach Scharre über die Frage, wie sich ein potenziell gefährliches KI-Wettrüsten am besten vermeiden lässt.

Wie sehr ist das US-Militär an der Entwicklung von KI-Waffen interessiert?

Führungskräfte im Verteidigungsbereich haben wiederholt ihre Absicht erklärt, einen Menschen „im Spiel“ zu behalten, der die Verantwortung für die Anwendung tödlicher Gewalt trägt. Allerdings hieß es dabei zugleich, dass man zum Nachziehen gezwungen sein könnte, wenn andere Länder autonome Waffen bauen. Und darin liegt die eigentliche Gefahr: Wenn ein Land diese Linie überschreitet, könnten andere glauben, es ihm gleichtun zu müssen, nur um konkurrenzfähig zu bleiben.

Mehr Infos

Kann man solchen Versprechungen überhaupt Glauben schenken?

Ich glaube, dass hochrangige US-Militärs ehrlich sind, wenn sie sagen, dass sie wollen, dass für tödliche Gewalt Menschen verantwortlich bleiben sollen. Sie wollen ganz bestimmt nicht, dass ihre Waffen Amok laufen. Andererseits ist es eine offene Frage, ob sich ein allgemeines Konzept wie menschliche Verantwortung in konkrete technische Vorgaben dazu umsetzen lässt, welche Arten von Waffen erlaubt sind. Die Definition von „autonomen Waffen“ ist bereits heute umstritten, also kann es unterschiedliche Ansichten darüber geben, wie sich die Prinzipien in die Praxis umsetzen lassen.

Warum müssen Technikexperten sich einbringen?

KI-Forscher müssen sich an diesen Gesprächen beteiligen, weil ihre technische Kompetenz unverzichtbar dafür ist, politische Entscheidungen zu beeinflussen. Wir müssen Verzerrungen, Transparenz, Erklärbarkeit, Sicherheit und andere Faktoren bei KI berücksichtigen. Heute hat KI-Technologie zwei Seiten – sie ist mächtig, hat aber auch viele Schwächen. Leider scheint die Politik den ersten Teil davon verstanden zu haben (KI ist mächtig), aber nicht den zweiten (die Risiken). KI-Forscher können Regierungen und Armeen dabei helfen, besser zu verstehen, warum sie so besorgt über die Verwendung dieser Technologie für Waffen sind. Um effektiv zu argumentieren, müssen sich die Forscher an einem konstruktiven Dialog beteiligen.

Was ist ihre Meinung zu der jüngsten Erklärung gegen autonome Waffen, organisiert vom Future of Life Institute?

Das ist nicht der erste derartige Appell von KI-Forschern: Die Initiative basiert auf früheren offenen Briefen zu autonomen Waffen aus den Jahren 2015 und 2017. Aber diese Briefe sind symbolische Gesten und nutzen sich wahrscheinlich mit der Zeit ab. Auch international wird seit 2014 bei den Vereinten Nationen über autonome Waffen diskutiert, und der Druck durch KI-Experten gibt dieser Diskussion eine wichtige neue Dimension. Große Militärmächte zu einem umfassenden Verzicht auf KI-Waffen zu bewegen, ist damit aber noch nicht gelungen. Wirksamer wäre, wenn mehr Forscher die UN-Treffen besuchen und Politikern dabei helfen würden, zu verstehen, warum sie sich so große Sorgen machen.

Wie sieht es mit der Entscheidung von Google aus, seinen Vertrag mit dem Pentagon nicht zu verlängern?

Die kam etwas überraschend, weil es bei Maven gar nicht um autonome Waffen oder Zielsysteme ging; das Projekt schien den vor kurzem veröffentlichten KI-Prinzipien von Google zu entsprechen. Aber der Wettbewerb um die besten KI-Talente ist hart, und ich glaube, Google wollte nicht riskieren, dass einige seiner besten Ingenieure aus Protest abwandern.

Glauben Sie, dass solche Gesten die Entwicklung von autonomen Waffen verlangsamen werden?

Bei Maven hatte Google nicht einmal mit der Entwicklung von Waffen zu tun, die von Menschen kontrolliert werden, und mit autonomen Waffen schon gar nicht. Also gibt es hier keinen direkten Zusammenhang. Die Erklärung dagegen bezieht sich natürlich direkt auf autonome Waffen.

Aber ich glaube, beides wird keine großen Auswirkungen darauf haben, wie Armeen KI und Autonomie in ihre Waffen integrieren, denn die werden wahrscheinlich von Rüstungsunternehmen gebaut. Wenn große Technologieunternehmen wie Google nicht mehr mit dem Militär zusammenarbeiten, könnte das die Integration von KI-Technologie in wichtige unterstützende Funktionen wie Daten-Analyse wie bei Maven verlangsamen. Aber irgendwann werden andere Unternehmen die Lücke schließen. Manche haben bereits ziemlich öffentlich gesagt, dass sie mit dem Militär arbeiten wollen.

Könnten solche Initiativen auch unbeabsichtigte Folgen haben?

Wenn viele legitime Einsatzmöglichkeiten für KI als inakzeptabel dargestellt werden, könnte das einen tieferen Keil zwischen die technische und die politische Community treiben und eine vernünftige Debatte erschweren. Ingenieure sollten sich absolut von Projekten fernhalten, die sie ablehnen. Aber wenn diese persönliche Motivation dazu führt, dass andere davon abgehalten werden, an wichtigen und legitimen Anwendungen für nationale Sicherheit zu arbeiten, geht dies auf Kosten der öffentlichen Sicherheit und verletzt die Rechte anderer Ingenieure, auf ihr eigenes Gewissen zu hören. Demokratische Länder werden KI-Technologie für eine Reihe von wichtigen und rechtlich einwandfreien Zwecken im Bereich der nationalen Sicherheit einsetzen müssen – Aufklärung, Terror-Bekämpfung, Grenzsicherheit, Cybersicherheit und Verteidigung.

Befinden sich die USA bereits in einem KI-Wettrüsten mit China?

China hat öffentlich seine Absicht erklärt, bis 2030 global führend bei künstlicher Intelligenz zu werden, intensiviert seine Forschung und rekrutiert Top-Talente aus aller Welt. Das chinesische Modell der Fusion von Zivilbereich und Militär bedeutet zudem, dass KI-Forschung von bestimmten Technologieunternehmen problemlos vom Militär übernommen werden kann, ohne die Hürden, die manche Google-Mitarbeiter in den USA errichten wollen. China hat schon damit begonnen, die Grundlagen für einen mit KI betriebenen Technik-Überwachungsstaat zu legen.

Wenn sich KI-Forscher damit begnügen, die Verbreitung von KI-Werkzeugen in offenen, demokratischen Gesellschaften zu verlangsamen, die Wert auf ethisches Verhalten legen, erreichen sie vielleicht nur das Gegenteil ihrer Absichten: Sie könnten zu einer Zukunft beitragen, in der die mächtigste Technologie in der Hand von Regimen liegt, die sich am wenigsten für Ethik und Rechtsstaatlichkeit interessieren.

In Ihrem Buch erklären Sie, dass die Definition von Autonomie schwierig sein kann. Erschwert das die Diskussion über den militärischen Einsatz von KI?

Die Autoren der jüngsten Erklärung gegen autonome Waffen richten sich gegen Systeme, die Menschen töten. Sie räumen aber ein, dass gewisse autonome Systeme gebraucht werden könnten, um sich gegen andere derartige Waffen zu verteidigen. Es gibt eine Grauzone, in der Autonomie zur Verteidigung erforderlich sein könnte; dabei ist immer noch ein Mensch beteiligt, etwa wenn ein Kampfjet oder ein U-Boot als Ziel ausgewählt wird, worin die eigentliche Herausforderung liegt. Widerstreitende Ziele miteinander in Einklang zu bringen, ist nicht leicht. Die Politik wird bei der Einführung dieser Technologie schwierige Entscheidungen treffen müssen.

Am meisten Einfluss auf diese Entscheidungen können KI-Forscher ausüben, wenn sie sich an einem konstruktiven, kontinuierlichen Dialog beteiligen, statt sich einfach herauszuhalten. KI-Forscher, die sich Sorgen über den Einsatz der Technologie machen, sind effektiver, wenn sie über Kampagnen hinausgehen und anfangen, Politiker über die heutige KI-Technologie und ihre Grenzen aufzuklären.

(sma)