Netzregeln 2018: Keine Eile bei Haftungsvorgaben für autonome Systeme
Experten warnen davor, Haftungsregeln für Roboter oder KI zu übereilen. Datenethik sei prinzipiell mathematisch implementierbar.
Autonome Systeme unter anderem für Fahrzeuge werfen Haftungsfragen auf. Im Kern geht es darum, wem etwa beim Einsatz von Robotern oder Künstlicher Intelligenz (KI) potenzielle Fehler zurechenbar sind. Lösungsvorschläge gibt es einige, die von einem Ausbau der Tierhaftung über einen Haftungsfonds für Maschinen bis zur Anerkennung einer elektronischen Roboterpersönlichkeit reichen.
Der Gesetzgeber sollte sich aber noch Zeit lassen, bevor er neue Haftungsregeln für sichere autonome Systeme erlässt, erklärte Thanos Rammos, Anwalt für IT- und Medienrecht der Kanzlei Taylor Wessig, am Mittwoch auf der Konferenz "Netzregeln 2018" der Heinrich-Böll-Stiftung und des IT-Branchenverbands Bitkom. Sonst würden Normen mit unklaren Rechtsbegriffen geschaffen, die Gerichte oder Behörden in langwierigen Entscheidungen erst mit Leben füllen müssten. Es gebe aber noch keinen Konsens unter Juristen und in der Gesellschaft.
Abwarten und Algorithmen verstehen
Für Rammos geht es so erst einmal darum zu verstehen, "was Algorithmen machen". Im Gespräch seien derzeit hauptsächlich maschinelle "teilautonome Entscheidungen", mit einer starken KI sei frühestens in einigen Jahrzehnten zu rechnen. Es bringe daher nichts, "den Mantel der Angst über alles zu hüllen".
Vorgeprescht sei die Legislative 2017 bereits mit Regeln für teil- oder hochautomatisierte Systeme in Fahrzeugen, verwies Rammos auf einen Bundestagsbeschluss. Prinzipiell dürfen damit Autos auf die Straße, in denen der Computer zeitweise die Kontrolle übernimmt. Der Gesetzgeber habe aber weitgehend offen gelassen, welche Pflichten der Mensch habe, wenn er das Ruder abgebe. Dies hänge nun vor allem "von der Spezifikation des Herstellers ab". Für vielversprechender hält es Rammos, Gütesiegel für verantwortungsvolle KI-Systeme und Algorithmen zu entwickeln oder auf Selbstregulierung der Industrie wie klare Verhaltenskodizes zu setzen.
Nicola Jentzsch, Leiterin des Projekts ”Datenökonomie” der Stiftung Neue Verantwortung, liebäugelte ebenfalls mit einer Art Siegelsystem, "um ethisch gute KI zu kennzeichnen". Dabei komme es hauptsächlich darauf an, dass es von außen evaluiert werden könne. Geschäftsgeheimnisse bräuchten Firmen dafür nicht preiszugeben, aber schon laut der Datenschutzgrundverordnung (DSGVO) müssten Betroffene bei automatisierten Entscheidungsfindungen etwa bei der Bonitätsprüfung oder der Auswahl von Bewerbern für einen Job über die "Logik des Systems" aufgeklärt werden.
Gütekriterien für Entscheidungsprozesse
Als wichtige Bestandteile einer Datenethik nannte Jentzsch Transparenz, Fairness und "Nicht-Diskriminierung". Neuronale Netze fürs Maschinenlernen seien zwar an sich "eher undurchsichtig". Es gebe aber mittlerweile Ansätze für erklärbare oder gar selbsterklärende Künstliche Intelligenz, mit denen sich Entscheidungen zurückverfolgen ließen. Zudem sei es möglich, personenbezogene Daten "mit mathematischen Funktionen zu verrauschen oder zu vergröbern", sodass sie nicht mehr auf ein Individuum zurückgeführt werden könnten. Dabei sei im Blick behalten, dass die solche Verfahren einsetzenden Firmen wettbewerbsfähig blieben und sich etwa die Qualität von Datensätzen nicht zu sehr verschlechtere.
Einen Katalog an Gütekriterien für ethische algorithmenbasierte Entscheidungsprozesse hat gerade das iRights-Lab im Rahmen des Projekts "#algorules" für die Bertelsmann-Stiftung publik gemacht. Dabei geht es ebenfalls darum, die Transparenz zu erhöhen und die Beherrschbarkeit der Systeme zu sichern. Zudem soll Betroffenen eine einfache Beschwerdemöglichkeit eröffnet werden. Das iRights-Lab bietet interessierten Nutzern über eine Online-Umfrage die Möglichkeit, die Vorschläge zu kommentieren und fortzuentwickeln. (anw)