"Sind Roboter schuldfähig?"

Der Robotik-Forscher Klaus Schilling spricht im TR-Interview über die Ethik von Automaten.

In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen
Lesezeit: 3 Min.
Von
  • Udo Flohr

Der Robotik-Forscher Klaus Schilling spricht im TR-Interview über die Ethik von Automaten.

Schilling lehrt Robotik und Telematik an der Universität Würzburg und ist Mitinitiator des DFG-geförderten Projekts "Robotik und Recht".

Technology Review: Wenn ein Roboter einen Schaden verursacht – haftet dann der Mensch, der dafür verantwortlich ist, oder der Roboter?

Klaus Schilling: Der Mensch. Aber die Verantwortung ist nicht immer so leicht zuzuweisen. Früher traf der Mensch Entscheidungen, die Maschine führte sie aus. Heute haben wir aber eine rasante Entwicklung hin zu selbstständig agierenden Robotern.

TR: Wann lässt sich die Verantwortung nicht eindeutig auf Hersteller oder Betreiber zurückführen?

Schilling: Zum Beispiel, wenn unvorhersehbare Bedingungen auf- treten, etwa extremes Wetter. Der Roboter sollte zwar selbst merken, wann er die Grenzen eines sicheren Einsatzes überschreitet – aber das gilt auch für den Betreiber. Und richtig spannend wird es, wenn sich ein Roboter nicht einfach abschalten darf, weil das noch mehr Schaden verursachen kann.

TR: Wann kann das der Fall sein?

Schilling: Anstoß unseres Projekts "Robotik und Recht" war ein Fahrzeug, das ältere Menschen autonom zu Zielen wie Apotheke, Post oder Arzt transportiert oder begleitet. Bei Hindernissen stoppt es automatisch oder weicht aus – dass es sich abschaltet, ist aber keine Option.

TR: Wenn Menschen zu langsam reagieren, treffen heute schon Maschinen schwerwiegende Entscheidungen – etwa einen Flugkörper abzuschießen, der sich einem Kriegsschiff nähert. Was aber, wenn das ein harmloser Sportflieger ist?

Schilling: Moderne Sensorsysteme können oft sogar besser und schneller als der Mensch Situationen erfassen und vernünftige Entscheidungen treffen. Doch ähnlich wie der Mensch werden auch Roboter hier Fehlentscheidungen treffen.

TR: Müsste man Roboter dann nicht konsequenterweise zu juristischen Personen ernennen?

Schilling: Bei uns arbeiten Techniker und Juristen mit Experten anderer Gebiete daran, fundierte Antworten auf solche Fragen zu finden. Denkbar ist es zum Beispiel, analog zu Schäden zu verfahren, die Kinder oder Haustiere verursacht haben. Für Versicherungen öffnet sich hier ein interessanter Bereich, innovative Produkte anzubieten.

TR: Könnte ein Computer auf verminderte Zurechnungsfähigkeit plädieren, weil er von einem Virus infiziert wurde?

Schilling: Sicher wird dann der Programmierer des Virus mit zur Verantwortung gezogen werden müssen. Aber es sind auch vom Hersteller Vorkehrungen gegen Viren- oder Hackerangriffe zu treffen. Maschinen können auch Sensorausfälle und andere Fehlfunktionen erkennen und entsprechend reagieren. Aber die Frage ist: Wie weit muss eine solche Selbstdiagnose gehen? Ein Roboter, der sich nur noch mit sich selber beschäftigt, kann keine Aufgaben erfüllen.

TR: Welches Ziel hat Ihr Projekt?

Schilling: Wir wollen juristische und ethische Grundlagen schaffen, um die Verantwortung bei zunehmend größerer Entscheidungsfähigkeit von Maschinen einzustufen. Solche Rechtssicherheit wird Entwicklern einen Orientierungsrahmen geben.

Mehr Antworten:

Robotik und Recht, Uni Würzburg

Roboethics, Stanford (bsc)