Roboter verändern die Gesellschaft – aber in welche Richtung?

Robotikexperten diskutieren mit Politikwissenschaftlern, Juristen, Militärs und Friedensaktivisten über die Auswirkung autonomer Technologien: Ein Austausch über gewissenlose Roboter, autonome Fahrzeuge und die Last selbstlernender Systeme.

In Pocket speichern vorlesen Druckansicht 40 Kommentare lesen
Roboter verändern die Gesellschaft – aber in welche Richtung?
Lesezeit: 5 Min.
Von
  • Hans-Arthur Marsiske
Inhaltsverzeichnis

Dem autonomen Fahrzeug das Steuer überlassen? Nichts leichter als das: Einfach die App starten, „Ich akeptiere“ anklicken (natürlich ohne die Nutzungsbedingungen zu lesen) und los geht es. Alan Winfield zufolge funktionieren so die selbstfahrenden Autos von Tesla. Der Professor für Elektrotechnik (University of the West of England) illustrierte mit diesem Beispiel bei einem Workshop zu gesellschaftlichen Auswirkungen autonomer Technologien am Friedensforschungsinstitut SIPRI in Solna bei Stockholm, welche absurden Formen solche Technologien heute schon annehmen können – und unterstrich damit die Notwendigkeit und Dringlichkeit verbindlicher Regeln.

In dem von Robotikspezialist Raj Madhavan zusammen mit dem SIPRI-Institut organisierten Gedankenaustausch wurde erstmals sowohl der zivile als auch der militärische Einsatz autonomer Systeme behandelt. Dafür brachte der Workshop Robotikexperten mit Politikwissenschaftlern, Juristen, Angehörigen des Militärs und Friedensaktivisten zusammen und lieferte damit im Kleinen ein Modell für den erforderlichen gesellschaftlichen Diskurs. Im Zentrum der Diskussion standen Fragen der Regulierung, sowohl auf der rechtlichen als auch auf der technischen Ebene.

Zeigen Sie mir Ihre Dienstmarke: Wachroboter Canguru hat einen Eindringling gestellt.

Es sei eine Debatte, auf die Robotikforscher bislang nicht gut vorbereitet seien und bei der sie sich zu wenig beteiligen würden, beklagte Ludovic Righetti (Max-Planck-Institut für Intelligente Systeme). Dabei könne die Auseinandersetzung helfen, verbreitete Missverständnisse über die Technologie auszuräumen; diese würden häufig wirkliche Probleme verdecken. Viele etablierte Forscher scheuten jedoch die Kontroverse, insbesondere die Auseinandersetzung mit militärischen Anwendungen der Robotik. Von jüngeren Wissenschaftlern werde sie dagegen ausdrücklich gewünscht.

Camilla Waszink vom International Law and Policy Institute in Oslo verwies darauf, dass die Regeln des Internationalen Völkerrechts für die Kriegführung einen angemessenen Anteil menschlicher Entscheidungen verlangen. Inwieweit autonome Waffensysteme eines Tages rechtlich relevante Entscheidungen ohne menschliches Zutun treffen könnten, sei eine Frage, die nur empirisch geklärt werden könne. Allerdings könnten solche Waffensysteme schon vorher gravierende Konsequenzen haben.

Für das Strafrecht sei bislang neben einer schuldhaften Tat auch ein schuldhafter Geist wichtig. Wenn aber zukünftig komplexe technische Systeme schuldhafte Taten ohne schuldhaften Geist ausüben könnten, stelle sich die Frage der Verantwortlichkeit völlig neu. Möglicherweise müssten Staaten die Verantwortung für strafbare Handlungen von Robotern selbst übernehmen.

Im zivilen Bereich sah Barbara Bottalico von der University of Pavia nahe Mailand insbesondere bei der zunehmend engeren Zusammenarbeit von Menschen und Robotern am Arbeitsplatz Regelungsbedarf. Das betreffe Fragen der Sicherheit, psychologische Aspekte, aber auch neue Anforderungen bei der Arbeitsplatzbeschreibung.

Die Arbeit mit Computern und Robotern könne von den menschlichen Mitarbeitern mehr und mehr die Bereitschaft und Fähigkeit zur kontinuierlichen Anpassung an immer wieder neue Updates verlangen. Natürlich müsse auch der Schutz der Privatsphäre von Angestellten angesichts sich stetig verbessernder Überwachungstechnologie gewährleistet werden. Ein 2007 in Italien verabschiedetes Gesetz fordere für die Kontrolle von Firmenmitarbeitern ausdrücklich eine "menschliche Dimension".

Auch auf der technischen Ebene stellt das immer engere Zusammenrücken von Menschen und Robotern die Regulierungskomitees vor große Herausforderungen. Aus einer 2006 erstellten Ethik-Roadmap seien mittlerweile erste Standards hervorgegangen, sagte Winfield, etwa der 2014 publizierte ISO 13482, der Sicherheitsanforderungen für persönliche Assistenzroboter beschreibt, oder vor fünf Monaten der britische Standard BS 8611, den Winfield nicht ohne Stolz als "erste Publikation zu Ethik-Standards für Roboter" hervorhob.

Google stellte den ersten Prototypen seines autonomen Fahrzeugs 2014 vor.

(Bild: Google)

Aber, so Winfield weiter, ein Regelkatalog "braucht Zähne“. Damit etwa autonome Fahrzeuge auf den Straßen akzeptiert werden können, sei eine Aufsichtsbehörde ähnlich der Flugaufsicht erforderlich. Es sei nur den rigorosen, über lange Zeit entwickelten Sicherheitsstandards zu verdanken, wenn sich Menschen heute bedenkenlos in ein Flugzeug setzen.

Vertrauen ist für Winfield die zentrale Kategorie, damit autonome Systeme ihren Platz in der menschlichen Gesellschaft finden. Dazu gehöre unbedingt auch die Einbeziehung der Öffentlichkeit: Nicht umsonst bemühten sich die Behörden nach einem Flugzeugunglück stets um größtmögliche Transparenz und gäben ständig neue Updates über die Untersuchungen zum Unfallhergang.

Für Industrieroboter habe es seit den 1980er-Jahren ein gutes Regelwerk gegeben, erklärte Gurvinder Virk vom Swedish Royal Institute of Technology. Das werde jetzt nicht nur durch die zunehmende Kooperation von Mensch und Roboter unterwandert. Ein wahrer "Albtraum“ für Regulierungsbehörden seien selbstlernende Systeme. "Forscher lieben sie“, räumte Virk ein. "Aber die Industrie hasst sie.“ Denn solche Systeme verändern sich ständig und müssten entsprechend immer wieder neu zertifiziert werden – so lange es keine sich selbst zertifizierenden Systeme gibt. Das war als Scherz gemeint. Aber wer weiß das schon so genau?

Vielleicht besteht die größte Herausforderung, den richtigen Umgang mit den entstehenden autonomen Technologien zu finden, darin, dass es letztlich eine Glaubensfrage ist, wo die Grenzen dieser Technologien liegen und ob es überhaupt welche gibt. Insbesondere westliche Gesellschaften haben aber in den letzten Jahrhunderten große Anstrengungen unternommen, Fragen des Glaubens aus dem politischen Diskurs herauszuhalten. Nicht ausgeschlossen, dass autonome Systeme und künstliche Intelligenz auch hier nach und nach für neue Gewichtungen sorgen.

Der Workshop in Stockholm war der zweite von insgesamt drei Workshops: Der erste fand im Juni in Ottawa statt, ein weiterer ist für den 13. Oktober in südkoreanischen Daejeon im Rahmen der Robotikkonferenz IROS geplant. Die amerikanische, europäische und asiatische Perspektive auf das Thema soll in einem White Paper zusammengefasst werden, um die gesellschaftliche Debatte zu inspirieren und voranzubringen. (nij)