Autonome Waffen: KI-Forscher sollen Militär unterstützen

Viele KI-Experten wollen ihr Wissen nicht für autonome Waffen einsetzen. Damit spielen sie den Falschen in die Hände, fürchtet ein Autor und früherer Soldat.

In Pocket speichern vorlesen Druckansicht 46 Kommentare lesen
Soldat und Buch-Autor rät KI-Forschern zu mehr Austausch mit dem Militär
Lesezeit: 2 Min.
Von
  • Sascha Mattke

Google hat ein Projekt mit dem US-Verteidigungsministerium nicht verlängert, und mehr als 2400 KI-Forscher haben in einer Erklärung versprochen, nicht an autonomen Waffen zu arbeiten, die selbstständig Menschen töten: In der westlichen Technologie-Community herrscht erkennbare Abneigung gegen den Einsatz von künstlicher Intelligenz für militärische Zwecke. Paul Scharre, Autor des neuen Buches "Army of None: Autonomous Weapons and the Future of War", hält das für kontraproduktiv: um etwas zu bewirken, müssen KI-Forscher seiner Meinung nach mehr tun, als sich nur herauszuhalten, wie Technology Review online in Militärroboter: "Schwierige Entscheidungen" berichtet.

Scharre war Soldat der US-Armee in Irak und Afghanistan und arbeitet jetzt als Senior Fellow am Center for a New American Security. Nach seinen Worten ist bereits die Frage, was es bedeutet, dass ein Mensch weiter die „Verantwortung“ für die Entscheidung zum Töten anderer Menschen tragen soll, schwierig zu klären: „Die Definition von autonomen Waffen ist bereits heute umstritten, also kann es unterschiedliche Ansichten darüber geben, wie sich die Prinzipien in die Praxis umsetzen lassen“, sagt er.

Wenn KI-Experten sich gegen autonome Waffen aussprechen, gibt das der Diskussion über diese Technologie laut Scharre eine wichtige neue Dimension. Allerdings sei es damit nicht gelungen, große Militärmächte zu einem umfassenden Verzicht auf KI-Waffen zu bewegen. Wenn bedeutende Technologieunternehmen in diesem Bereich nicht tätig würden, würden eben andere Anbieter einspringen. Und es bestehe die Gefahr, dass letztlich ausgerechnet die Länder die mächtigsten Waffensysteme entwickeln, "die sich am wenigsten für Ethik und Rechtsstaatlichkeit interessieren.“

Mehr dazu bei Technology Review online:

(sma)