FIfFKon16: Autonome Waffensysteme erlauben fehlerhaftes Töten

Der Informatiker Hans-Jörg Kreowski warnt massiv vor selbständigen Killer-Robotern: Maschinen mit Entscheidungsverfahren über Tod und Leben auszustatten, sei "völlig pervers" und ethisch nicht vertretbar.

In Pocket speichern vorlesen Druckansicht 265 Kommentare lesen
FIfFKon16: Autonome Waffensysteme erlauben fehlerhaftes Töten
Lesezeit: 6 Min.
Von
Inhaltsverzeichnis

Hans-Jörg Kreowski, emeritierter Professor für Theoretische Informatik an der Universität Bremen, hat nachdrücklich zu einem Bann autonomer Waffensysteme aufgerufen. Der Einschätzung führender Militärstrategen der USA und der Nato, dass mehr oder weniger eigenständige Killer-Roboter prinzipiell mit dem Kriegsvölkerrecht zu vereinbaren seien, müsse ein "ganz dickes Nein" entgegengehalten werden, betonte der Forscher am Samstag auf der Jahreskonferenz FIfFKon16 des Forums InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) in Berlin.

Auch autonome Waffensysteme seien programmiert und in ihnen würden gängige Planungs- und Entscheidungsalgorithmen ausgeführt, begründete Kreowski sein Anliegen. "Wir wissen, dass diese fast immer fehlerhaft sind", führte er aus. In der Informatik existierten für einschlägige Probleme keine effizienten Lösungen, "es gibt wahrscheinlich auch keine". Die Schwierigkeiten müssten daher näherungsweise, also heuristisch angegangen werden. Für das FIfF-Vorstandsmitglied ist damit klar: "Es wird fehlerhaftes Töten explizit in Kauf genommen."

Einschlägige Killermaschinen müssten zudem getestet und verifiziert werden, wo immer Vergleichsmodelle nötig seien, ergänzte der Wissenschaftler. Die Arbeit daran sei aber ein absolut unterentwickelter Forschungsbereich, es fehle schon an den passenden Methoden.

Ferner werde die Entscheidung, "wann getötet wird, einfach vorverlagert". Sie sei "von Menschen gemacht" und "irgendwann programmiert", diese Vorgaben führe die Maschine dann später aus. Dabei ethische Maßstäbe und internationale juristische Vereinbarungen zu berücksichtigen, funktioniere angesichts blumiger, interpretationsbedürftiger und nicht widerspruchsfreier Gesetzes- und Vertragstexte nicht: "Die Genfer Konvention ist nicht programmierbar."

Kreowskis Resümee: "Maschinen mit Entscheidungsverfahren über Tod und Leben auszustatten, ist völlig pervers." Ein solches Unterfangen gehe weder ethisch noch technisch. Da autonome Systemen parallel zivil etwa im Fahrzeugbereich entwickelt würden, dürften ähnlich gelagerte Waffen auch "vergleichsweise billig und leicht zu bauen" sein. Dies wiederum werde eine "wahnsinnige Rüstungsspirale" auslösen. Die Perfidie bestehe darin, dass alle anderen Nationen den derzeit auf diesem Militärgebiet führenden USA nachziehen wollten. Nicht zu vergessen sei, dass schon heute "Selbstmordattentate die asymmetrische Antwort" etwa auf Drohnenschläge, also den Einsatz unbemannter Waffensysteme seien.

Dazu kommt laut dem Informatiker, dass selbst US-Fahrpläne wie die "Unmaned Systems Integrated Roadmap" von 2013 oder ein Nato -Sammelband von 2015 zu dem Thema die vielen offenen Fragen nicht verschwiegen. Darin finde sich etwa die Sorge, dass die Maschinen außer Kontrolle geraten könnten. Auch gebe es Bedenken, "dass Soldaten und autonome Waffen gar nicht gut zusammenpassen auf dem Schlachtfeld" und die ganze militärische Kultur sowie der Krieg selbst neu gedacht werden müssten. Ungeklärt sei letztlich auch, woher die Roboter Energie beziehen sollten. Ein Radius von 400 Kilometern, wie ihn Batterien für Elektroautos aufwiesen, sei aus militärischer Sicht nicht akzeptabel.

Die Staatengemeinschaft sollte sich Kreowski zufolge ähnlich wie bei biologischen und chemischen Waffen darauf einigen, auf Killer-Roboter zu verzichten. Initiativen wie der einschlägige Appell von mittlerweile 3000 Fachleuten aus den Bereichen Künstliche Intelligenz und Robotik oder die Cyberpeace-Kampagne vom FIfF wiesen in die richtige Richtung. Informatiker selbst müssten hier besonders aufpassen, "dass ihr Fach nicht missbraucht nicht". Er persönlich halte es mit Albert Einsteins Forderung: "Das Denken der Zukunft muss Kriege unmöglich machen."

Für eine stärkere Regulierung von Big Data sprach sich Judith Simon aus, Wissenschaftstheoretikerin an der IT-Universität Kopenhagen. Sie warb dabei für eine Kombination aus gesetzlichen Regeln, Selbstregulierung und "Governance by Design" neben verstärkten Bildungsmaßnahmen, um der "funktionalen Intransparenz" vor allem bei proprietären Systemen für die Verarbeitung großer Datenmengen Herr zu werden und die "Black Box Society" zu verhindern.

Der Ansatz, dass ausreichend Daten "für sich selbst sprechen" könnten und Korrelation wichtiger werde als Kausalität, sei "verführerisch für die Politik", meinte die Technikphilosophin. Wenn man bedenke, dass die Ergebnisse von Big-Data-Analysen auch von Plattformen und Ontologien, Ein- und Ausschlusskriterien, Formatierungen oder regulativen Rahmenbedingungen abhingen und dabei neben Individuen auch ganze Gruppen diskriminiert werden könnten, sei dies freilich "Schwachsinn". Es komme daher darauf an, nicht nur eine Debatte über die Besitzmöglichkeiten der Ausgangsdaten zu führen, sondern auch die eingebauten Vorurteile nachzuweisen und gegebenenfalls die Vertrauenswürdigkeit von Big-Data-Systemen zu erhöhen.

Bei seiner Reise an die "Enden der Informatik" umriss Wolfgang Coy vom Helmholtz-Zentrum für Kulturtechnik das vorherrschende Mantra in vielen Firmen mit der Losung: "Hauptsache, wir haben den Speicher voll mit Daten; dann wird schon rauskommen, was wir als nächstes machen." Hinter dieser Big-Data-Hoffnung stehe der alte Wunsch: "Weg mit der Theorie, das ist alles so schwierig." Nebenbei habe Googles Künstliche Intelligenz offenbar heimlich "hinter dem Rücken der Informatiker" eine Zwischensprache entwickelt. Diese alte Idee sei schon in Übersetzungsanträgen der EU vor 20 Jahren aufgetaucht, befand der Informatiker.

IT-Firmen wie Amazon drängten mit dem Dash-Button in die Wohnungen und automatisierten mit der einfachen Nachbestellfunktion die fürsorgliche "Mami" aus der Kindheit. Abhörmöglichkeiten seien heute auch kein Thema mehr dank lauschender Lautsprecher wie "Echo": "Wir kaufen sie selber, legen sie uns neben das Bett." Wirklich das letzte sei aber der Gedanke im Kontext des autonomen Fahrens, dass Ethik algorithmisierbar sei: Dabei werde es spannend, "wenn VW auf Daimler trifft oder gar auf Kia, die eine völlig andere Ethik entwickelt haben". (odi)