Autonome Systeme: Noch wenig rechtlicher Anpassungsbedarf

Zumindest bei teilautonomen Systemen greift nach Ansicht von Experten noch der klassische Haftungsansatz. Über komplett selbständige Roboter wird aber weiter zu reden sein.

In Pocket speichern vorlesen Druckansicht 102 Kommentare lesen
Psychologie & Technik: Schau mir in die Augen, Auto!

Wer haftet, wenn zum Beispiel autonome Autos nicht brav nebeneinander fahren, sondern es knallt?

(Bild: citymobil2.eu)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Für teilautonome IT-Systemen, die der Mensch noch direkt steuern kann, sehen Experten derzeit keinen Bedarf für einen neuen Rechtsrahmen. Der derzeitige Mix aus Verschuldungs- und Gefährdungshaftung reiche aus, waren sich die Teilnehmer einer Konferenz des Bundsverbands der Deutschen Industrie (BDI) am Donnerstag in Berlin einig.

Bundesjustizminister Heiko Maas (SPD) sprach von "ethisch sehr schwierigen" Haftungsproblemen, denen sich die Politik stellen werde. Deren Aufgabe sei es aber nicht, technische und wirtschaftliche Entwicklungen zu stoppen, "sondern den Verkehr zu regeln". Günther Oettinger, EU-Kommissar für digitale Wirtschaft und Gesellschaft, geht prinzipiell davon aus, dass rechtlich gesehen nur "die ein oder andere Definition überarbeitet werden muss". Nutzer autonomer Systeme würden tendenziell seltener haften, im Gegenzug komme es zu einer stärkeren Produkthaftung und mehr Verantwortlichkeiten der Hersteller.

"Die klassischen Haftungsmodelle werden über viele Jahre Bestand haben", meint Benno Quade, Rechtsleiter der Software AG. Der Versicherer müsse zunächst für möglichen Schaden aufkommen und dann ermitteln, wer letztlich verantwortlich ist. Die Haftung wird so durchgereicht auf den Verursacher. Auch bei kritischen Komponenten etwa mit Open-Source-Software, "von denen ich gar nicht weiß, wie sie funktionieren, bin ich noch in der Gefährdungshaftung", erläuterte Quade.

Für eine "Black Box" bei mehr oder weniger autonomen Systemen plädiert Wolfgang Rühl vom Bundesjustizministerium. Nur so könnten ablaufende Prozesse aufgezeichnet und später nachvollzogen werden. Entsprechende Protokollverfahren seien etwa beim autonomen Fahren wohl nötig, räumte auch Marion Jungbluth vom Bundesverband der Verbraucherzentralen (vzbv) ein. Eine "Rundumüberwachung" der Nutzer wäre aber nicht gerechtfertigt, da sonst die Verbraucher die Systeme nicht akzeptierten.

Beim "bestimmungsgemäßen Gebrauch" von Robotern oder selbstfahrenden Autos müsse der Verbraucher "aus der Haftung heraus sein", fordert Jungbluth. Es könne nicht angehen, dass der Nutzer zur Rechenschaft gezogen werde, wenn ein Robo-Fahrzeug "über eine rote Ampel fährt oder einen Unfall verursacht". Das "Dilemma", in dem ein System selbst entscheiden müsse, ob es etwa in einen Baum oder eine Menschenmenge steuere, werde sich in der Praxis "selten bis gar nicht" stellen.

"Wir werden deutlich sicherere Straßen erleben, weil die Maschine nie müde wird", zeigte sich auch Jörg Vocke, Justiziar bei Siemens, zuversichtlich. Einig ist er auch mit der Verbraucherschützerin, dass den Konsumenten keinesfalls die Haftung für Systemrisiken aufgebürdet werden dürften, sondern gegebenenfalls der Hersteller in Regress genommen werden müsste. Auch auf diesen dürfe aber nicht die komplette Haftung abgewälzt werden. Nutzer könnten etwa verpflichtet werden, Updates zeitnah einzuspielen, um "epidemische" Cyberangriffe auszuschließen.

Über die Einführung vollautonomer Systeme müssten Politik und Gesellschaft nach einer gründlichen Debatte entscheiden, blickte Vocke in die Zukunft. Dies sei nicht Aufgabe von Unternehmen. "Bevor man den Roboter zum Einkaufen schickt, muss das System erst mal zugelassen sein", verwies Rühl aus dem Justizministerium auf eine weitere Hürde. Wenn eine Technik "grundsätzlich schadensträchtig" sei, müsste dies mit ihren Vorteilen für das Gemeinwohl zunächst abgewogen werden.

Auch ein selbstlernendes System hänge davon ab, "welchen Input es bekommt", verwies der Software-AG-Jurist Quade auch auf die Verantwortung der Programmierer. Um Haftungsfragen zu klären, müssten neben den Versicherern die Gerichte zunächst befähigt werden, eigene Big-Data-Analysen durchzuführen. Bei rein autonomen Technologien sei der Mensch letztlich gar nicht vorgesehen, seine Eingriffe würden dort als "störend" empfunden,. Sollten dadurch fatale "Kettenreaktionen" ausgelöst werden oder ereigneten sich nicht absehbare "terroristische Angriffe" auf die Systeme, wäre dies wohl unter "höhere Gewalt" zu subsumieren.

Der Passauer Internetrechtler Dirk Heckmann warf gemeinsam mit Quade die Frage auf, ob unter solchen Vorzeichen die Gefährdungshaftung noch der richtige Ansatz sei oder dieses abgefedert werden müsse durch Haftpflichtversicherungsansätze im Sinne eines Solidarmodells. Nur auf die Programmierer könne man bei vollautonomen Robotern nicht mehr abstellen. (vbr)