Wer hat Angst vor Robocops?

Schon heute werden ferngesteuerte Roboter zur Bombenentschärfung und Überwachung im Polizeidienst genutzt. Können und dürfen autonome Maschinen irgendwann auch ganz ohne menschlichen Einfluss für die öffentliche Sicherheit sorgen?

In Pocket speichern vorlesen Druckansicht
Lesezeit: 10 Min.
Von
  • Jan Guldner
Inhaltsverzeichnis

Der Körper des Roboters Andros Mark 5-A1 ist ein silberner Metallblock, der sich auf schwarzen Gummirädern vorwärtsbewegt. Sein Greifarm reicht bis zu 1,70 Meter weit. An einem Donnerstagabend im Juli 2016 hielt ein solcher Roboter im amerikanischen Dallas ein Pfund Sprengstoff in seinen Metallfingern. Die vom US-Rüstungskonzern Northrop Grumman hergestellte Maschine rollte damit zu der Wand, hinter der sich ein Amokschütze verschanzt hatte. Dessen Kugeln hatten an diesem Tag bereits zwei Polizisten getötet, drei weitere starben später an ihren Verletzungen. Um nicht noch mehr Kollegen zu gefährden, setzte Polizeichef David Brown den Roboter ein. Sekunden nach seinem Befehl zur Fernzündung der Bombe war der Schütze tot.

TR 5/2017

Die Explosion sorgte für Aufregung. Sicherheitsdienste und Polizei hatten Roboter zwar schon vorher benutzt – aber nie in tödlicher Absicht. Sie halfen, Bomben zu entschärfen oder unübersichtliche Einsatzgebiete zu überwachen. In Dallas, da sind sich viele Experten einig, wurde eine Grenze überschritten. "Das ist eine neue Dimension in der Polizeitechnik", sagte Seth Stoughton, ehemaliger Polizist und Rechtsprofessor an der University of South Carolina, kurz nach dem Vorfall.

Noch ist die rollende Bombe die große Ausnahme, zumal solche Roboter nie wirklich autonom agieren, sondern immer noch eine Anbindung per Kabel oder Funk haben. Aber wie lange noch? Robocops entwickeln sich schleichend zum festen Bestandteil der Kriminalitätsbekämpfung. Das Center for the Study of the Drone am New Yorker Bard College hat staatliche Beschaffungsdaten ausgewertet und herausgefunden, dass inzwischen einige Hundert Roboter im Dienst der amerikanischen Polizei stehen. Auch in der Luft erhalten die Ordnungshüter Unterstützung. Zwischen 2012 und 2014 beantragten acht Polizei- und elf Sheriff-Departments eine Drohnenfluggenehmigung. In Connecticut wird sogar darüber diskutiert, tödliche Waffen an Polizeidrohnen zu erlauben. North Dakota hat Waffen wie Taser oder Gummigeschosse an Drohnen bereits erlaubt.

Im Rest der Welt sind robotische Gesetzeshüter ebenfalls auf dem Vormarsch. Die Polizei von Dubai hat gerade angekündigt, dass bis zum Jahr 2030 ein Viertel ihrer Polizisten Roboter sein sollen. Der erste Robocop des Emirats soll im Mai 2017 auf Streife gehen. Zunächst soll seine Arbeit darin bestehen, dass er Anzeigen von Bürgern aufnimmt und Bußgelder kassiert.

Angesichts dieser Entwicklung stellt sich die Frage: Könnten KI-gesteuerte Maschinen künftig in der Lage sein, ohne menschliches Zutun für öffentliche Sicherheit zu sorgen?

Schon seit 2014 dreht ein etwa 1,50 Meter großer und 150 Kilogramm schwerer weißer Kegel seine Runden durch ein Shopping-Center in Stanford im Silicon Valley. Der Sicherheitsroboter, Modell K5 der Firma Knightscope, soll für Recht und Ordnung sorgen. Er ist per Livestream und Gegensprechanlage mit der Zentrale verbunden, wirklich autonom handelt er nur teilweise. Vielmehr filmt der K5 seine Umgebung mit vier digitalen Kameras. Neben Bildern sammelt der Knightscope-Roboter Daten aus seiner Umgebung. Mit einer Hitzekamera kann er mögliche Brandherde erkennen.

Außerdem misst er Luftfeuchtigkeit und -druck. Ferner erkennt er Nummernschilder, speichert sie und merkt sich, welche Autos wo wie lange stehen. Auch verdächtige WLAN-Signale kann er aufspüren. All das macht der Roboter selbstständig – entweder auf einer programmierten oder einer zufälligen Route. Menschen greifen erst ein, wenn die Sensoren etwas entdecken, was unüblich ist. Eine Person, die in einer abgesperrten Zone herumschleicht, eine Steckdose, die auffällig heiß wird, oder ein Auto, das verdächtig lange am gleichen Ort parkt.

Ziel des Knightscope-Roboters ist es, monotone und gelegentlich auch gefährliche Patrouillengänge zu übernehmen, während die strategische Überwachungsarbeit nach wie vor Menschen erledigen. So kann theoretisch ein größerer Bereich gesichert werden – und das zu geringeren Kosten. Denn Knightscope vermietet Hard- und Software zu einem Stundensatz von rund sieben Dollar. Nach Zahlen des amerikanischen Bureau of Labor Statistics verdienen die etwa 1,1 Millionen einheimischen menschlichen Sicherheitsleute im Durchschnitt mehr als 14 Dollar pro Stunde.

Auch die Drohnen des Herstellers Aptonomy sollen in erster Linie als bessere Augen und Ohren der menschlichen Sicherheitsleute dienen. Sie schweben über Firmenarealen und halten Ausschau nach Eindringlingen. Die Drohne fliegt ihre Patrouillen autonom, kann aber auch von Wachmännern per Fingerzeig in einer App an eine bestimmte Stelle des Geländes geschickt werden. Erspäht sie einen Unbefugten, schlägt sie Alarm – und stürzt sich mit grellem Scheinwerferlicht und ohrenbetäubendem Lautsprecherlärm auf ihn. Zwanzig Minuten kann das Fluggerät in der Luft bleiben, bis es zur Ladestation fliegt und in vierzig Minuten seine Akkus wieder auflädt.

Das hat der Parc getaufte Flugroboter der Firma CyPhy Works nicht nötig. Er wird über eine mehr als 120 Meter lange Leine mit Strom versorgt. So kann Parc tagelang ein Areal aus der Luft im Auge behalten – entweder mit einer 360-Grad-Optik oder einer Kamera mit 30-fachem Zoom.

Die geringen Kosten und die im Wortsinn übermenschlichen Überwachungsmöglichkeiten dürften auf Interessenten treffen. Noch sind Sicherheitsroboter und Drohnen zwar nicht viel mehr als rollende oder fliegende Videokameras. Aber sie vermitteln einen Eindruck davon, wie autonome Maschinen zukünftig für die öffentliche Sicherheit eingesetzt werden könnten. Deshalb ist es aufschlussreich, wie Menschen auf sie reagieren. Bislang gibt es allerdings nicht nur Anzeichen für ein friedliches Miteinander. Der Serviceroboter Robovie II etwa sollte sich im Auftrag von Forschern kreuz und quer durch ein Einkaufszentrum in Osaka bewegen. Wenn ihm jemand im Weg stand, sollte er darum bitten, durchgelassen zu werden. Das klappte, bis sich einige Kinder einen Spaß daraus machten, der Maschine absichtlich den Weg zu versperren und sie am Ende sogar schlugen und traten.

Wie soll es Robotern wie dem K5 da gelingen, ein Gefühl der Sicherheit zu vermitteln oder auch Menschen zu verwarnen? Oliver Bendel, Professor für Maschinenethik an der Fachhochschule Nordwest Schweiz (FHNW) in Windisch, glaubt zwar, dass sich "manche Menschen abschrecken lassen, etwas Illegales zu tun, wenn sie von einem Roboter beobachtet werden". Allerdings könne sich das im Falle von K5 recht schnell abnutzen: "Die Maschine kann erst mal nichts tun, sondern nur einen Vorfall melden." Die meisten Passanten hätten sie deshalb einfach ignoriert.

Bendel sieht eine Möglichkeit darin, die Erscheinung zu ändern. Man könnte Roboter martialisch aussehen lassen. "Naheliegender wäre es aber", sagt Bendel, "ihnen eine Uniform anzuziehen, damit sie als Polizisten erkennbar sind." Einen Schritt in diese Richtung sind Forscher der chinesischen National University of Defense Technology in Changsha gegangen. Das Design ihres Polizeiroboters AnBot ist ähnlich weiß und kegelförmig wie der K5. Auf seiner Karosserie prangt aber ein Polizeiabzeichen. Die Tageszeitung "South China Morning Post" führt die Entwicklung der Robo-Polizisten auf die Aufstände in der uigurischen Hauptstadt Ürümqi im Jahr 2009 zurück.

Uniformierte, die dort im Einsatz gewesen waren, seien aufgrund der brutalen Zusammenstöße traumatisiert worden und hätten später unter Depressionen und Schlaflosigkeit gelitten. Darunter würden Roboter nicht leiden. "Sie werden nicht müde und kennen keine Angst", zitiert das Blatt einen AnBot-Projektleiter. Seit Anfang 2016 fährt AnBot Streife im Flughafen von Shenzhen, mittlerweile ist er auch im Bahnhof von Zhengzhou im Einsatz. Seine Aufgaben sind einfach: Er scannt Gesichter und gleicht sie mit Datenbanken ab. Die Uniform suggeriere: "Ich bin eine Respektsperson", sagt Bendel.

Ob das jedoch reicht, bezweifelt er. Die chinesischen Entwickler offenbar auch, denn sie gaben AnBot zusätzlich Zuckerbrot und Peitsche mit: Er kann helfen und Fluginformationen auf einem Touchscreen bereitstellen, gleichzeitig aber auch auf Befehl eines kontrollierenden Polizisten hin einen eingebauten Taser auslösen. Der Schritt von der dienstbeflissenen Respektsperson zum bewaffneten Vollzugsbeamten scheint hier nicht allzu weit zu sein.

Noch aber haben alle Roboter im Dienst von Polizei und Sicherheitsfirmen eines gemeinsam: Ohne Menschen funktionieren sie nicht. Grundsätzlich, da ist sich Joachim Hertzberg vom Deutschen Forschungszentrum für Künstliche Intelligenz sicher, seien Roboterpolizisten machbar. Damit sie jedoch wirklich autonom für Recht und Ordnung sorgen könnten, müsse noch einiges passieren. "Menschen fällt es leicht, Situationen intuitiv zu erkennen", sagt Hertzberg. "Aber genau diese Dinge haben wir aus KI-Sicht noch überhaupt nicht verstanden."

Würde man einen Polizeiroboter etwa in eine unübersichtliche Situation schicken, in der sich Menschen streiten, wäre die Maschine heillos überfordert. Und selbst wenn ein Roboter anhand von Körpersprache oder Pulsschlag erkennen könnte, wie sich jemand fühlt, stellt sich die Frage: Wie schreitet er ein? "Dazu braucht es menschliche Einfühlung", sagt Hertzberg. Und die lässt sich noch nicht programmieren. "Bei echten Polizisten gibt es wichtige Ermessensspielräume", sagt der Maschinenethiker Bendel. Fährt jemand zu schnell, weil man ins Krankenhaus muss? Läuft man bei Rot über die Ampel, um jemandem zu Hilfe zu eilen? Roboter, die bloß starre Regeln befolgen, könnten hier schnell mehr schaden als nützen.

In Deutschland regelt Paragraf 6a des Bundesdatenschutzgesetzes, dass Menschen nicht Entscheidungen ausgeliefert sein dürfen, die eine Maschine allein getroffen hat. "Es wäre aber denkbar, dass Maschinen menschliche Entscheidungen vorbereiten und assistieren", sagt Susanne Beck, Rechtsprofessorin am Kriminalwissenschaftlichen Institut der Universität Hannover. Zum Beispiel könnte eine Maschine auch einen Verdächtigen festhalten.

Uwe Wehrstedt pflichtet bei. Seit vielen Jahren organisiert er die GPEC, eine große Fachmesse für Polizeitechnik in wechselnden deutschen Städten. Er kennt sowohl die Hersteller als auch die Abnehmer auf Behördenseite. Teilautonome Drohnen und Roboter, glaubt Wehrstedt, können in bestimmten Situationen wie der Überwachung von Großveranstaltungen hilfreich sein. Etwa indem sie Beamte bei Routinetätigkeiten entlasten und ihnen den Raum geben, sich auf die wichtigen Entscheidungen zu konzentrieren. Am Ende aber, ist sich Wehrstedt sicher, bleibt "die Technik immer ein Hilfsmittel zur Aufgabenerfüllung". Bleibt zu hoffen, dass dies auch die Behörden so sehen.

(bsc)