Man kann eine Maschine nicht bestrafen

Warum wir eine Roboter-Ethik brauchen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

“Die Roboterentwicklung trägt nach langen Jahren endlich Früchte, in denen wir nur über die Zukunft gesprochen haben“: Dies behauptet Noel Sharkey, Professor für künstliche Intelligenz und Robotik an der Universität Sheffield. Die rasante Entwicklung, so Sharkey, verlangt neue Gesetze und eine gesellschaftliche Diskussion über die Ethik des Einsatzes von Robotern. Telepolis sprach mit ihm.

Was ist denn ein Roboter überhaupt - einfach eine Maschine mit bestimmten Fähigkeiten?

Noel Sharkey: Eine schwierige Frage, weil sich die Definition seit der ersten Benutzung des Terminus 1921 dauernd geändert hat. Wenn wir uns auf mobile Roboter beschränken, wird es klarer. Wir haben die Wahl: Ein autonomer Roboter ist eine mobile Maschine, die von einem Programm gesteuert wird, das Sensorimpulse verarbeitet und die Motoren des Robots entsprechend anspricht. Ein ferngesteuerter Roboter ist ein Gerät, das von einem Programm gesteuert sein kann, aber einen Menschen in die Kontrollschleife integriert.

Warum wird Ethik in der Robotik gerade jetzt zum Thema?

Noel Sharkey: Die Roboterentwicklung trägt nach langen Jahren endlich Früchte, in denen wir nur über die Zukunft gesprochen haben. Die Anzahl der Serviceroboter auf der Erde ist dreimal so groß wie die der Industrieroboter. Die Technologie ist so weit, dass viele Aufgaben von einem Roboter erledigt werden können. Es wäre gut, würden wir uns jetzt, vor der massenhaften Anwendung von Robotern, auf ethische Richtlinien einigen - und nicht erst, wenn sie Teil des Alltags geworden sind. Anders formuliert: Besser wir setzen selbst Standards, als dass wir die Standards sich selbst setzen lassen. Der plötzliche Massenansturm auf das Internet hat uns überrascht, es wäre keine Idee, dasselbe auch bei der Roboteranwendung passieren zu lassen.

Noel Sharkey und Robo Reem B. (Foto: Noel Sharkey)

Militär, Altenpflege, Babysitten, Polizeiarbeit

Welche Bereiche müssen wir hauptsächlich betrachten?

Noel Sharkey: Als für die unmittelbare Zukunft bedeutend sehe ich erstens den Einsatz von Robotern beim Militär. Ferngesteuerte Maschinen sind bereits im Einsatz - etwa 4000 Bodenroboter, parallel rund um die Uhr Luftdrohnen, die mit Hellfire-Raketen bewaffnet sind. Zweites Feld ist der Einsatz von Robotern bei der Altenpflege - ein zweischneidiges Schwert. Auf der einen Seite könnten Roboter Senioren länger vor der stationären Pflege bewahren, auf der anderen aber könnte zu viel Robotereinsatz die Patienten menschlicher Nähe berauben.

Drittens gibt es bereits heute mindestens 14 Firmen in Japan und Korea, die Roboter für den Umgang mit Kindern entwickelt haben. Die Frage hier ist, ob das zu sozialer Ausgrenzung und Vernachlässigung führt. Schließlich sehe ich als vierten Punkt den Einsatz von Maschinen für Polizei- und Überwachungszwecke. Die Sorge besteht hier darin, dass dies zu einem größeren Verlust an persönlicher Freiheit und Privacy führen könnte.

Setzen Sie sich auch für zusätzliche Gesetzgebung ein?

Noel Sharkey: Ich glaube, wir brauchen spezifische Gesetze und Richtlinien, bevor eine neue Generation von Robotern fest in der Gesellschaft verankert ist. Aber ich bin kein Gesetzgeber. Meine Rolle ist es, die verschiedenen ethischen Probleme aufzuzeigen, die unsere Gesetzgeber dringend diskutieren müssen - hoffentlich auf internationaler Ebene. Wir brauchen mindestens internationale, ethische und sicherheitstechnische Richtlinien für die Herstellung und den Einsatz von Robotern.

In einem Artikel in der aktuellen Ausgabe des Wissenschaftsmagazins Science beschreiben sie die Konsequenzen, wenn Kinder sich zu sehr an unbelebte Objekte binden. Wie unbelebt sind denn Roboter, wenn ihnen lebensähnliches Verhalten einprogrammiert ist?

Noel Sharkey: Dass eine Maschine programmiert ist, sich wie ein Tier zu bewegen, macht sie noch nicht lebendig. Heutige Roboter sind einfache Maschinen mit Motoren, Rädern (manchmal auch Beinen oder Ketten), Sensoren und einem Computer. Sie sind nicht schlau genug, dass man sie dumm nennen könnte, aber sie sind eine sehr fortgeschrittene Form von Technologie.

Denken Sie, dass Roboter für Kinder auch hilfreich sein könnten - etwa indem sie ihnen mehr Aufmerksamkeit schenken als ihre Kinder?

Noel Sharkey: Es mag so aussehen, als gäben sie ihnen mehr Aufmerksamkeit als ihre berufstätigen Eltern - aber ist das wirklich Aufmerksamkeit? Dann könnte man auch sagen, dass der Fernseher dem Kind Aufmerksamkeit schenkt. Das sollten andere diskutieren, aber meine persönliche Meinung ist, dass ein von einer Maschine erzogenes Kind psychischen Schaden durch Vernachlässigung erleiden wird.

Der Roboter ist weder verantwortlich noch zur Verantwortung zu ziehen

Wie weit kann die Autonomie eines Roboters gehen? Wer wird zum Beispiel für die Entscheidungen eines Roboters verantwortlich sein, die er aufgrund seiner Programmierung getroffen hat?

Noel Sharkey: Eines der großen Probleme bei der Roboteranwendung besteht darin, einen Weg zu finden, Verantwortlichkeit für Fehler zu lokalisieren. Wenn ein Elternteil sein Kind in der Obhut eines defekten Robots lässt, sind dann die Eltern schuldig, der Hersteller, der Verkäufer oder der Programmierer? Eines ist klar: Der Roboter ist weder verantwortlich noch zur Verantwortung zu ziehen. Man kann einen Roboter nicht bestrafen.

Wir betrachten Ethik hier aus menschlicher Sicht. Werden wir das Problem irgendwann auch aus der Sicht des Roboters betrachten müssen - so wie es etwa bei Ethikproblemen rund um die Tierwelt schon der Fall ist?

Noel Sharkey: Ich kann nicht behaupten, dass dies in ferner Zukunft nicht vielleicht doch passieren könnte - aber ich glaube, dass die Wahrscheinlichkeit sehr gering ist, dass die Art von KI-Robotern, die wir heute haben, irgendwann Bewusstsein erlangt. Es gibt keinerlei Evidenz, dass Maschinen in irgendeiner Weise intelligenter werden, abgesehen von der riesigen Rechenkraft, die sie inzwischen besitzen. Ich mag diese Art philosophischer Debatten in Akademikerkreisen, aber die ethischen Probleme der Nutzung von Robotern in naher Zukunft zu lösen scheint mir derzeit weit dringender, als solche entfernten Möglichkeiten zu betrachten.