"Roboter sind gefährlich"

Jürgen Altmann, Physiker und Friedensforscher an der TU Dortmund und Mitbegründer des "International Committee for Robot Arms Control", über autonome Kampfroboter und die Möglichkeiten, sie zu verhindern.

In Pocket speichern vorlesen Druckansicht 17 Kommentare lesen
Lesezeit: 10 Min.
Von
  • Hans-Arthur Marsiske

Jürgen Altmann, Physiker und Friedensforscher an der TU Dortmund und Mitbegründer des "International Committee for Robot Arms Control", über autonome Kampfroboter und die Möglichkeiten, sie zu verhindern.

heise online: Herr Altmann, mögen Sie die "Terminator"-Filme?

Altmann: Bislang habe ich noch keinen dieser Filme gesehen. Ich habe mir aber fest vorgenommen, das bald nachzuholen.

heise online: Das kann nicht schaden. Immerhin gab es im Zusammenhang mit der Gründung des International Committee for Robot Arms Control (ICRAC) bereits Vorwürfe, Sie würden mit Science-Fiction-Szenarien irrationale Ängste schüren.

heise online: Wenn man Robotern, die mehr und mehr selbstständig handeln und Entscheidungen treffen, Waffen in die Hand gibt, kann es für die Menschheit gefährlich werden. Das ist weder irrational noch Science Fiction, liegt allerdings noch ein ganzes Stück in der Zukunft. Wir konzentrieren uns gegenwärtig auf die nächsten zehn bis zwanzig Jahre und versuchen, die für diese Zeit zu erwartende Entwicklung autonom entscheidender Kriegsmaschinen aufzuhalten.

heise online: Wie kam es zur Gründung des Komitees?

Altmann: Ich selbst beschäftige mich seit 2001 mit militärischen Anwendungen der Mikrosystem- und Nanotechnik. Dabei habe ich bewaffnete Robotersysteme als potenzielle Gefahr erkannt, die durch vorbeugende Verbote gebannt werden sollte. Im Rahmen meiner Studien habe ich selbst Artikel publiziert und die von Kollegen gelesen, die sich ebenfalls warnend zu Wort gemeldet haben. Das waren insbesondere der Robotikforscher Noel Sharkey aus England und der australische Philosoph Robert Sparrow. Am Rande einer Konferenz in Yorkshire ergab sich die Gelegenheit, die beiden persönlich zu treffen. Peter Asaro, Philosoph aus New York, war elektronisch dazu geschaltet. Der Gedankenaustausch führte dann schließlich dazu, dass wir im vergangenen September in Sheffield das ICRAC gegründet haben.

heise online: Sie sagen, dass die Robotersysteme "gefährlich" werden könnten. Das ist bei militärischen Systemen ja durchaus beabsichtigt. Welche Gefahr sehen Sie genau?

Seit 2001 beschäftigt sich der Dortmunder Physiker und Friedensforscher Jürgen Altmann mit den Konsequenzen militärischer Anwendungen der Mikrosystem- und Nanotechnik.

(Bild: TU Dortmund)

Altmann: Das ist ein weiter gefasster Gefahrenbegriff, der sich nicht allein auf die nationale Sicherheit beschränkt, sondern das gesamte internationale System gewissermaßen von oben betrachtet. Da erscheint es zunächst verständlich, dass Staaten durch die Aufrüstung ihrer Streitkräfte die Sicherheit für sich erhöhen wollen. Zugleich verstärken sie dadurch aber gleichzeitig die Bedrohung für alle anderen. Das ist das sogenannte Sicherheitsdilemma: Durch die Bemühungen um die eigene Sicherheit erhöht man die Gefahren und die Unsicherheit für alle. Zum Beispiel könnte die Entscheidung für einen Krieg auf der politischen Ebene leichter fallen, wenn keine Menschen, sondern nur Maschinen in die Kampfzone geschickt werden. Dann könnten autonome Waffensysteme in einer Krisensituation, möglicherweise aufgrund eines Sensor- oder Computerfehlers, einen Krieg auslösen. Kurze Vorwarnzeiten erhöhen die Gefahr, das ist schon im Zusammenhang mit Nuklearwaffen und Interkontinentalraketen ausführlich diskutiert worden. Stellen Sie sich etwa zwei Flotten von Drohnen vor, die entlang einer Grenze dicht nebeneinander fliegen und sich genau beobachten. Bei einem Angriff muss hier innerhalb von Sekundenbruchteilen über einen Gegenangriff entschieden werden. Bei einem Fehlalarm könnte der "Gegen"angriff einen Krieg auslösen, den beide Seiten eigentlich nicht wollen. Neben dieser Kriseninstabilität gibt es das Risiko der Weiterverbreitung der Technologie. Das besteht nicht nur auf staatlicher Ebene, vielmehr könnten Roboter auch von Kriminellen und Terroristen genutzt werden.

heise online: Wie will das ICRAC dazu beitragen, diese Risiken einzudämmen?

Altmann: Wir wollen eine internationale Debatte darüber in Gang bringen, inwieweit bewaffnete Roboter den Weltfrieden eher sichern oder ihn gefährden. Wir vermuten eher eine Gefährdung und drängen daher auf internationale Vereinbarungen zur Begrenzung solcher Systeme. Ich persönlich würde ein grundsätzliches Verbot bewaffneter unbemannter Systeme, mit Ausnahme der schon existierenden Raketen und Flugkörper, begrüßen. Die anderen Komiteemitglieder sind pragmatischer und wollen das Verbot auf autonom entscheidende Systeme beschränken. Sie fordern, dass immer ein Mensch die Entscheidung für den Waffeneinsatz treffen muss.

heise online: Die Frage, ob der Mensch oder die Maschine entschieden hat, lässt sich aber möglicherweise nicht immer eindeutig beantworten. Die Autonomie ist ja nicht unbedingt schlagartig da, sondern entwickelt sich graduell, etwa in Gestalt einer zunehmenden Automatisierung bei der Aufbereitung der Sensordaten.

Altmann: Das ist ein großes Problem. Es gibt handfeste militärische Gründe, den Entscheidungsprozess zu automatisieren. Bei der Steuerung eines unbemannten Systems über Satellit haben Sie Verzögerungen in der Größenordnung von einer Sekunde, die unter Umständen über Erhaltung oder Verlust des Systems entscheiden können. Neben diesem Drang zu schnelleren Reaktionszeiten gibt es das Motiv der Kostenersparnis. Gegenwärtig sind unbemannte Flugsysteme noch sehr personalintensiv. Dieser Aufwand ließe sich mit erhöhter Autonomie reduzieren, wenn ein Bediener einen ganzen Schwarm von Robotern überwachen würde. Der Mensch würde dann nicht mehr jede einzelne Aktion steuern, sondern eher allgemeine Anweisungen geben. Schließlich könnte die Funkverbindung gestört sein. Ohne ein explizites Verbot ist daher eine schleichende Entwicklung in Richtung autonom feuernder Roboter zu befürchten. Dabei gilt es, eine Formulierung zu finden, die die bereits existierenden automatischen Waffensysteme zur Flugabwehr oder Schiffsverteidigung zulässt, die Entwicklung neuer Systeme, die über ihre Ziele selbst entscheiden, aber klar verhindert.

heise online: Militärvertreter betonen immer wieder, dass autonomes Feuern vom Militär nicht angestrebt werde. Beruhigt Sie das?

Altmann: Das US-Verteidigungsministerium äußert sich ähnlich. Gleichwohl gibt es die eben genannten militärischen Motive zu erhöhter Autonomie. Und die USA werden es nicht immer so vergleichsweise leicht haben wie jetzt, wo sie einen Gegner mit sehr viel geringeren technischen Möglichkeiten bekämpfen. Wenn auch die Gegner über unbemannte Systeme verfügen, wird der Druck in Richtung Autonomie deutlich zunehmen.

heise online: Künstliche Intelligenz ist ja längst keine Domäne großer Labors mehr, sondern wird von sehr vielen Forschern, teilweise sogar Hobbybastlern vorangetrieben. Lässt sich so eine Entwicklung überhaupt durch gesetzliche Regelungen in den Griff kriegen?

Altmann: Ich denke schon, denn es stellen sich ja generelle Fragen, die auch den zivilen Einsatz von Robotern betreffen. Wie sollen sich Roboter im öffentlichen Raum Menschen gegenüber verhalten? Dürfen sie Fußwege, Radwege oder die Straße benutzen? Ein Waffenverbot für unbemannte Systeme ließe sich im Übrigen auch einigermaßen zuverlässig überprüfen, zumindest solange die Systeme bestimmte Größenordnungen nicht unterschreiten. Ich habe daher vorgeschlagen, eine Mindestgröße für frei bewegliche Roboter, auch im zivilen Bereich, zu vereinbaren. Schwieriger ist dagegen die Überprüfung, ob ein System ferngesteuert oder autonom handelt, denn das ist ihm von außen ja nicht anzusehen. Denkbar wäre aber in jedem Fall eine Verpflichtung zur lückenlosen Dokumentation aller Aktionen, um sie zumindest im Nachhinein beurteilen zu können.

heise online: Geht es bei dieser Debatte nicht letztlich um unser generelles Verhältnis zu künstlicher Intelligenz?

Altmann: Diese Frage schwingt im Hintergrund wohl immer mit. Es könnte sinnvoll sein, die Forschung insgesamt zu begrenzen. Wenn wir Maschinen nach dem Vorbild des Menschen bauen, mit all seinen Emotionen, Aggressionen und sonstigen Eigenheiten, mögen die sich eines Tages übers Internet zusammenschließen und zum Ergebnis kommen, dass sie die Menschen eigentlich nicht mehr brauchen. Solche Szenarien sind ja nicht völlig auszuschließen. Alle Entwicklungen, die in diese Richtung gehen, sollten zukünftig kritischer auf ihre ethischen Dimensionen geprüft werden.

heise online: Sie sollten sich wirklich mal "Terminator" ansehen. Da wird der Krieg der Maschinen gegen die Menschen für das Jahr 2029 vorhergesagt.

Altmann: Das erscheint mir als ziemlich früh. Es gibt einige Forscher, die eine technologische "Singularität", ab der die künstliche Intelligenz sich selbst weiter entwickelt, in einem ähnlichen Zeitrahmen erwarten, aber ich sehe das eher skeptisch. Bislang hat sich die künstliche Intelligenz ja viel langsamer entwickelt als ursprünglich erwartet.

heise online: Wir können uns aber kaum darauf verlassen, dass es in diesem langsamen Tempo weitergeht. Es mag zukünftig auch sprunghafte Entwicklungen geben.

Altmann: Völlig richtig. Das lässt sich nicht ausschließen, insbesondere wenn sie an lernfähige Systeme mit um Größenordnungen höherer Rechenleistung denken, die sich selbstständig weiterentwickeln. Schon bei elementaren Computersimulationen zu "artificial life" beobachtet man ja ganz unerwartetes emergentes Verhalten.

heise online: Wie ist die bisherige Resonanz auf Ihre Initiative?

Altmann: Zu unserem ersten Workshop im September haben sich eigentlich alle angemeldet, die sich mit Büchern oder Artikeln zum Thema geäußert haben. Nicht alle können kommen, aber das Interesse ist groß. Von Industrievertretern habe ich gehört, dass es dort wohl keine Probleme mit Verboten oder Rüstungsbeschränkungen gäbe. Entsprechenden politischen Entscheidungen würde man sich beugen. Beim Militär sehe ich, insbesondere in den USA, zwei Fraktionen. Die einen möchten die Entwicklung, gedeckt durch entsprechende Kongress-Beschlüsse, möglichst rasch vorantreiben. Andere mahnen zur Vorsicht und verweisen darauf, dass autonome Angriffsentscheidung durch das Völkerrecht nicht gedeckt ist, solange Maschinen eine komplexe Situation nicht genau so gut wie menschliche Befehlshaber beurteilen können. Dadurch fühlen wir uns ermutigt, ebenso durch die in jüngster Zeit erlassenen Verbote von Landminen und Streumunition. Bei Drohnen wird es allerdings schwieriger werden, Politik und Öffentlichkeit für das Thema zu sensibilisieren, weil die Opferzahlen geringer sind als bei Minen und Streubomben.

heise online: Gibt es beim deutschen Militär Gesprächsbereitschaft zu dem Thema?

Altmann: Auf informeller Ebene ja. Aber letztlich wird man dann immer auf die Führungsebene verwiesen. Von dort kenne ich bislang noch keine verbindlichen Erklärungen zur Frage der Bewaffnung von Robotern. (pmz)