Wer hat Angst vor Robocops?

Seite 2: Flugroboter mit 360-Grad-Optik

Inhaltsverzeichnis

Das hat der Parc getaufte Flugroboter der Firma CyPhy Works nicht nötig. Er wird über eine mehr als 120 Meter lange Leine mit Strom versorgt. So kann Parc tagelang ein Areal aus der Luft im Auge behalten – entweder mit einer 360-Grad-Optik oder einer Kamera mit 30-fachem Zoom.

Die geringen Kosten und die im Wortsinn übermenschlichen Überwachungsmöglichkeiten dürften auf Interessenten treffen. Noch sind Sicherheitsroboter und Drohnen zwar nicht viel mehr als rollende oder fliegende Videokameras. Aber sie vermitteln einen Eindruck davon, wie autonome Maschinen zukünftig für die öffentliche Sicherheit eingesetzt werden könnten. Deshalb ist es aufschlussreich, wie Menschen auf sie reagieren. Bislang gibt es allerdings nicht nur Anzeichen für ein friedliches Miteinander. Der Serviceroboter Robovie II etwa sollte sich im Auftrag von Forschern kreuz und quer durch ein Einkaufszentrum in Osaka bewegen. Wenn ihm jemand im Weg stand, sollte er darum bitten, durchgelassen zu werden. Das klappte, bis sich einige Kinder einen Spaß daraus machten, der Maschine absichtlich den Weg zu versperren und sie am Ende sogar schlugen und traten.

Wie soll es Robotern wie dem K5 da gelingen, ein Gefühl der Sicherheit zu vermitteln oder auch Menschen zu verwarnen? Oliver Bendel, Professor für Maschinenethik an der Fachhochschule Nordwest Schweiz (FHNW) in Windisch, glaubt zwar, dass sich "manche Menschen abschrecken lassen, etwas Illegales zu tun, wenn sie von einem Roboter beobachtet werden". Allerdings könne sich das im Falle von K5 recht schnell abnutzen: "Die Maschine kann erst mal nichts tun, sondern nur einen Vorfall melden." Die meisten Passanten hätten sie deshalb einfach ignoriert.

Bendel sieht eine Möglichkeit darin, die Erscheinung zu ändern. Man könnte Roboter martialisch aussehen lassen. "Naheliegender wäre es aber", sagt Bendel, "ihnen eine Uniform anzuziehen, damit sie als Polizisten erkennbar sind." Einen Schritt in diese Richtung sind Forscher der chinesischen National University of Defense Technology in Changsha gegangen. Das Design ihres Polizeiroboters AnBot ist ähnlich weiß und kegelförmig wie der K5. Auf seiner Karosserie prangt aber ein Polizeiabzeichen. Die Tageszeitung "South China Morning Post" führt die Entwicklung der Robo-Polizisten auf die Aufstände in der uigurischen Hauptstadt Ürümqi im Jahr 2009 zurück.

Uniformierte, die dort im Einsatz gewesen waren, seien aufgrund der brutalen Zusammenstöße traumatisiert worden und hätten später unter Depressionen und Schlaflosigkeit gelitten. Darunter würden Roboter nicht leiden. "Sie werden nicht müde und kennen keine Angst", zitiert das Blatt einen AnBot-Projektleiter. Seit Anfang 2016 fährt AnBot Streife im Flughafen von Shenzhen, mittlerweile ist er auch im Bahnhof von Zhengzhou im Einsatz. Seine Aufgaben sind einfach: Er scannt Gesichter und gleicht sie mit Datenbanken ab. Die Uniform suggeriere: "Ich bin eine Respektsperson", sagt Bendel.

Ob das jedoch reicht, bezweifelt er. Die chinesischen Entwickler offenbar auch, denn sie gaben AnBot zusätzlich Zuckerbrot und Peitsche mit: Er kann helfen und Fluginformationen auf einem Touchscreen bereitstellen, gleichzeitig aber auch auf Befehl eines kontrollierenden Polizisten hin einen eingebauten Taser auslösen. Der Schritt von der dienstbeflissenen Respektsperson zum bewaffneten Vollzugsbeamten scheint hier nicht allzu weit zu sein.

Noch aber haben alle Roboter im Dienst von Polizei und Sicherheitsfirmen eines gemeinsam: Ohne Menschen funktionieren sie nicht. Grundsätzlich, da ist sich Joachim Hertzberg vom Deutschen Forschungszentrum für Künstliche Intelligenz sicher, seien Roboterpolizisten machbar. Damit sie jedoch wirklich autonom für Recht und Ordnung sorgen könnten, müsse noch einiges passieren. "Menschen fällt es leicht, Situationen intuitiv zu erkennen", sagt Hertzberg. "Aber genau diese Dinge haben wir aus KI-Sicht noch überhaupt nicht verstanden."

Würde man einen Polizeiroboter etwa in eine unübersichtliche Situation schicken, in der sich Menschen streiten, wäre die Maschine heillos überfordert. Und selbst wenn ein Roboter anhand von Körpersprache oder Pulsschlag erkennen könnte, wie sich jemand fühlt, stellt sich die Frage: Wie schreitet er ein? "Dazu braucht es menschliche Einfühlung", sagt Hertzberg. Und die lässt sich noch nicht programmieren. "Bei echten Polizisten gibt es wichtige Ermessensspielräume", sagt der Maschinenethiker Bendel. Fährt jemand zu schnell, weil man ins Krankenhaus muss? Läuft man bei Rot über die Ampel, um jemandem zu Hilfe zu eilen? Roboter, die bloß starre Regeln befolgen, könnten hier schnell mehr schaden als nützen.

In Deutschland regelt Paragraf 6a des Bundesdatenschutzgesetzes, dass Menschen nicht Entscheidungen ausgeliefert sein dürfen, die eine Maschine allein getroffen hat. "Es wäre aber denkbar, dass Maschinen menschliche Entscheidungen vorbereiten und assistieren", sagt Susanne Beck, Rechtsprofessorin am Kriminalwissenschaftlichen Institut der Universität Hannover. Zum Beispiel könnte eine Maschine auch einen Verdächtigen festhalten.

Uwe Wehrstedt pflichtet bei. Seit vielen Jahren organisiert er die GPEC, eine große Fachmesse für Polizeitechnik in wechselnden deutschen Städten. Er kennt sowohl die Hersteller als auch die Abnehmer auf Behördenseite. Teilautonome Drohnen und Roboter, glaubt Wehrstedt, können in bestimmten Situationen wie der Überwachung von Großveranstaltungen hilfreich sein. Etwa indem sie Beamte bei Routinetätigkeiten entlasten und ihnen den Raum geben, sich auf die wichtigen Entscheidungen zu konzentrieren. Am Ende aber, ist sich Wehrstedt sicher, bleibt "die Technik immer ein Hilfsmittel zur Aufgabenerfüllung". Bleibt zu hoffen, dass dies auch die Behörden so sehen.

(bsc)