Innorobo: Stolpern Roboter über ethische Fragen?

Ethische, juristische und gesellschaftliche Gesichtspunkte stellen nach Ansicht von Roboterforschern eines der größten Hindernisse für die Entwicklung der Robotik dar.

In Pocket speichern vorlesen Druckansicht 122 Kommentare lesen
Lesezeit: 4 Min.
Von
  • Hans-Arthur Marsiske

Anfangs zierten sich die Workshop-Teilnehmer ein wenig, Stift und Papier in die Hand zu nehmen. Doch am Ende waren die Wände des Tagungsraums mit bunten Zetteln gepflastert. Oliver Kleine vom Fraunhofer-Institut für System- und Innovationsforschung leitete den Roadmapping-Workshop zu nicht-technischen Fragen der Robotik im Rahmen des European Robotics Forum, das parallel zur Branchenshow Innorobo in Lyon stattfindet, und wollte gern mit einem Brainstorming beginnen. Es ging um die Fragen die unter dem Kürzel EELS zusammengefasst werden: ethical, economical, legal, and societal issues – ethische, wirtschaftliche, juristische und gesellschaftliche Gesichtspunkte der zunehmenden Präsenz von Robotern.

Beim Brainstorming zu ethischen Problemen der Robotik kamen dann doch einige Ideen zusammen.

(Bild: Hans-Arthur Marsiske / heise online)

Auf gelben Zetteln notierten die Teilnehmer zunächst Problemfelder, benannten dann in grün kommerzielle Chancen, die sich darauf ergeben könnten, in orange mögliche Hemmnisse und schließlich auf pinkfarbenem Papier erforderliche Innovationen. Wie bei einem Brainstorming üblich, gab es zunächst keine Kritik oder Zensur der Ideen. So klebte unter dem gelben Zettel, der Sex- und Pornoroboter als ethisches Problem benannte, am Ende in pink die Innovation Teledildonics. Beim Stichwort "Robot Lawyers" als mögliches Geschäftsmodell stellte sich die Frage, ob damit Roboter als Anwälte gemeint seien oder Menschen, die Roboter vertreten? Natürlich beides!

Kleine versprach, dass all diese Gedanken in die Strategic Research Agenda einfließen sollen, ein Dokument, das die Entwicklung der europäischen Robotik über die nächsten Jahre skizziert. Wie viele der Ideen die weitere Diskussion überstehen werden, bleibt abzuwarten. Ohnehin gibt es bislang kein Beispiel, dass eine technologische Entwicklung aufgrund ethischer Bedenken eingestellt worden wäre. In der Regel geht es darum, Problemfelder zu identifizieren, um sie zu umgehen oder zu neutralisieren.

Nicht immer drücken sich Forscher dabei so klar aus wie Christophe Leroux vom Forschungsinstitut CEA List, der gesellschaftliche Herausforderungen als "wahrscheinlich größtes Hindernis für die Entwicklung der Robotik" bezeichnete. Die Befürchtung, dass Roboter den Menschen Arbeitsplätze wegnehmen könnten, ist für ihn ebenso eine "falsche Idee" wie die Befürchtung, Roboter könnten die Macht über Menschen ergreifen. Auch für Antoine Lanier vom Autohersteller PSA Peugeot-Citroën sind Vorbehalte gegenüber Robotern etwas, das es zu überwinden gilt. Dass sie möglicherweise berechtigt sein könnten, kam in seinem Vortrag nicht vor. Er fragte vielmehr, wie sich die "Vorzüge der Automatisierung am effizientesten kommunizieren" ließen.

Militärische Anwendungen der Robotik, wie hier am Stand der französischen Firma ECA Robotics werden mittlerweile nicht mehr so rigide ausgeklammert wie noch vor Kurzem.

(Bild: Hans-Arthur Marsiske / heise online)

Immerhin werden die militärischen Anwendungen der Robotik nicht mehr peinlich verschwiegen, sondern offen diskutiert. Éric Germain vom französischen Verteidigungsministerium beantwortete die Frage, ob die zivile Robotik sich um militärische Roboter kümmern müsse, mit einem ausdrücklichen "ja". Noel Sharkey von der University of Sheffield machte deutlich, dass die Entwicklung von Militärrobotern sehr rasch in Richtung Autonomie vorangehe. Dabei sei es auch klar, dass diese Technologie nicht vom Westen monopolisiert werden könne. Sharkey zitierte einen chinesischen Forscher, der ausdrücklich erklärt habe, dass China die von den USA und Israel gelassene Marktlücke ausnutzen und Kampfdrohnen exportieren werde.

Ehrensache: Bei einer Robotershow gibt es natürlich auch Roboterhostessen wie Furo-S von der südkoreanischen Future Robot Company.

(Bild: Hans-Arthur Marsiske / heise online)

Bei der Diskussion ethischer Fragen war es aber einzig Tony Prescott, ebenfalls von der University of Sheffield, der darauf drängte, die Sorgen, dass Maschinen die Kontrolle übernehmen könnten, ernst zu nehmen. Es sei eine ethische Notwendigkeit, bei der Forschung nach allen Richtungen offen zu bleiben. Prescott hielt es auch für eine schlechte Idee, die Beschäftigung mit ethischen Fragen einer eigenen Arbeitsgruppe in der neu geschaffenen Organisation euRobotics AISBL zu übertragen. Es sei vielmehr erforderlich, solche Probleme außerhalb der Hierarchie von einem unabhängigen, dem Vorstand gleichgeordneten Gremium behandeln zu lassen. (jk)