Wofür brauchen wir soziale Roboter?

Sollen Roboter alles tun, was möglich wäre? Nein, meint Philosophin Johanna Seibt auf der Konferenz AAMAS. Technikentwicklung sei an Werten zu orientieren.

In Pocket speichern vorlesen Druckansicht 17 Kommentare lesen
Restaurantszene. Ein autmotisiertes Gefährt mit Touchscreen und mehreren Ablagefächern hat ein Körberl Naan zum Tisch gebracht. Eine Menschenhand entnimmt gerade das Körberl.

Ein Roboter bringt Naan an einen Tisch in einem Restaurant.

Lesezeit: 3 Min.
Von
  • Hans-Arthur Marsiske

Ein Roboter, der im Restaurant die Gäste bedient, vergisst keine Bestellung, wird nie ungeduldig und erwartet kein Trinkgeld. Wenn solche Roboterkellner dann mit ein paar Scherzen auch noch für gute Stimmung sorgen können, ist es dann nicht unvermeidlich oder sogar wünschenswert, dass sie nach und nach ihre menschlichen Kolleginnen und Kollegen verdrängen?

Nein, meint Johanna Seibt, und widerspricht dieser Schlussfolgerung. Bei ihrem Eröffnungsvortrag zur International Conference on Autonomous Agents and Multi-Agent Systems (AAMAS) formulierte die Professorin für Philosophie der Universität Århus die Forderung, bei sozialen Robotern die Maxime der Nicht-Ersetzung zu beachten: Roboter sollten nur wünschenswerte Tätigkeiten ausüben, zu denen Menschen nicht in der Lage sind.

Dies sei wiederum eine zwingende Konsequenz aus der Forderung, sich bei Entwicklung von Technik an Werten zu orientieren. Statt zu fragen, wie sich das Automatisierungspotenzial gegenwärtiger Berufe ausschöpfen lasse, müssten sich Forscher und Entwickler von der Frage leiten lassen, ob es hochrangige moralische Werte gibt, die sich durch zwischenmenschliche Interaktion nicht realisieren lassen, wohl aber durch Mensch-Roboter-Interaktion.

Seibt verwies auf das 1980 von David Collingridge formulierte und nach ihm benannte Dilemma, wonach die sozialen Konsequenzen einer Technik erst dann umfassend verstanden werden, wenn die Entwicklung nicht mehr rückgängig gemacht werden kann. Eine Formulierung der US-Forscherin Sherry Turkle aufgreifend, wonach wir uns im "Robotikmoment der Kulturgeschichte" befänden, beklagte sie Orientierungslosigkeit der Forschung.

Während soziale Roboter – also Roboter, die in der Lage sind, mit ihresgleichen, Menschen und der Umgebung zu interagieren – mehr und mehr den physischen und symbolischen Raum menschlicher Interaktion bevölkerten, sei es unklar, warum sie überhaupt entwickelt werden. Soziale Roboter seien keine Werkzeuge oder Dinge, sondern soziale Akteure, stellte Seibt fest, und fragte: "Was könnte der Zweck sein, etwas in unser Leben einzuführen, das eine eigene Persönlichkeit simuliert?“

Sie verwies auf den Ansatz der Integrative Social Robotics zu verantwortungsvoller und kulturell nachhaltiger Entwicklung sozialer Roboter. Derzeit seien 30 Forscher aus neun Ländern, die zwölf verschiedene Fachdisziplinen repräsentieren, an diesem Projekt beteiligt. Es zielt darauf ab, die richtigen Zielsetzungen für die soziale Robotik zu finden. Obwohl die bislang erarbeiteten Konzepte natürlich noch vorläufig sind, deutete Seibt am Ende ihres Vortrags doch eine Richtung an, in die es gehen könnte: "Wie können Roboter genutzt werden, um Kooperation und soziale Gerechtigkeit zu fördern und unsere emotionale und rationale Autonomie zu stärken?"

(ds)