re:publica: KI-Forscherin fordert Recht, von Maschinen akkurat gesehen zu werden

Wir brauchen eine bessere Kontrolle darüber, was unser digitaler Schatten aussagt, meint die Juristin Sandra Wachter. Transparenz allein reiche nicht.

In Pocket speichern vorlesen Druckansicht 49 Kommentare lesen
re:publica: KI-Forscherin fordert Recht, von Maschinen akkurat gesehen zu werden

Professorin Sarah Spiekermann erläutert Szenarien für autonome Autos.

Lesezeit: 4 Min.
Inhaltsverzeichnis

Sandra Wachter, Forscherin am Internet-Institut der Universität Oxford, ist aufmerksam gegenüber der zunehmenden Bedeutung von Automated Decision Making (ADM). Big-Data-Analysen durch Algorithmen legten nicht nur fest, ob wir günstige Preise im Online-Handel oder einen Kredit erhielten, sondern teils auch, "wer ins Gefängnis gehen muss". Für Wachter ist damit klar: Menschen sollten ein Recht haben, von Maschinen "akkurat, richtig gesehen zu werden".

Jeder sollte jenseits von freiwilligen industriellen Angaben und Standards verstehen können, "was da wie entschieden wurde", betonte Juristin Wachter am Dienstag auf der Media Convention Berlin im Rahmen der re:publica. Menschen sollten sich zur Wehr setzen können, wenn sie durch die bereits weit verbreiteten Formen algorithmischer Entscheidungsfindung "ungerecht behandelt werden".

Sandra Wachter

(Bild: heise online / Stefan Krempl)

In einer Beziehung zwischen Menschen lasse sich zwar auch nicht genau kontrollieren, was das Gegenüber von einem halte. Grunddaten über sich gäben die Leute etwa in einem Gespräch aber freiwillig an, etwa ihre Herkunft, ihren Beruf oder ihre Essensvorlieben. Die IT-Giganten verarbeiteten über vergleichbare Angaben in sozialen Netzwerken hinaus aber auch viele Daten wie Standortinformationen oder Clickstreams ohne Wissen der Benutzer, die diese "passiv" zurückließen.

Aus diesen quasi erschlichenen Informationen leiteten Big-Data-Schmieden zudem viel ab und gäben die Erkenntnisse "an viele Augen" weiter, führte Wachter aus, die in den Bereichen Datenethik, Künstliche Intelligenz (KI), Robotik und Internet-Regulierung forscht. Mit dem informationellen Selbstbestimmungsrecht sei es da nicht weit her: "Ich habe keine Kontrolle darüber, was mein digitaler Schatten aussagt."

Rechtlich würden solche maschinellen Ableitungen ("Inferenzen") nicht als personenbezogene Daten mit einem entsprechenden Schutzniveau angesehen. Der KI sei die "antiquierte" Kategorisierung von Informationen aber auch "völlig egal", da "anonymisierte" Daten einfach in personenbezogene oder "normale" in sensible umgewandelt werden könnten.

"Wir sind aber viel mehr als das, was wir an Daten hinterlassen", unterstrich Wachter. Privatsphäre sei wichtig etwa als Recht, zuhause in Ruhe gelassen zu werden oder frei über Beziehungen mit Freunden zu entscheiden. "Wenn wir uns nur noch für Algorithmen und Korrelationen interessieren, nehmen wir den Menschen diese Möglichkeiten", warnte Wachter. Deswegen brauche es einen Rechtsanspruch auf angemessene automatisierte Inferenzen.

Transparente Algorithmen allein reichten nicht, um ADM in der Breite auf eine verlässliche ethische Basis zu stellen und zu rechtfertigen, begründete Wachter ihre Initiative, die an Rufe nach nachvollziehbarer KI anknüpft. Es müsse einfach überprüfbar sein, ob Datenquellen und die verwendeten Methoden "zuverlässig" seien. Unerlässlich sei auch eine Option, eine automatisierte Entscheidung anfechten zu können.

Die Hoffnung, dass ADM für fairere und objektivere Verfahren sorgen kann, teilt Wachter nicht von vornherein. Es wäre zwar wünschenswert, wenn etwa ein Arzt gemeinsam mit einem Algorithmus arbeiten und beide dabei blinde Flecken in der Diagnose auf Augenhöhe erkennen könnten. Vermutlich werde in einem solchen Prozess der Mensch aber schnell automatisiert und wegrationalisiert. Es gebe zudem keine "neutralen, perfekten Daten, weil wir nicht so sind". Menschliche Verzerrungen und Vorurteile würden mit dem Ausgangsmaterial mit transportiert. Ihr sei daher schleierhaft, wie Probleme wie die soziale Ungerechtigkeit gelöst werden sollten, "nur weil ein Algorithmus mit ins Spiel kommt".

Sarah Spiekermann

(Bild: heise online / Stefan Krempl)

Sarah Spiekermann, Leiterin des Instituts für Wirtschaftsinformatik und Gesellschaft der Wirtschaftsuniversität Wien, schloss sich Wachter an. Neben den großen Online-Plattformen bunkerten vor allem auch große Auskunfteien und Broker wie Acxiom, Equifax oder Oracle zehntausende Datensätze je Verbraucher und bereiteten daraus wichtige Entscheidungen vor. "Wir müssen an diese abgeleiteten Daten ran", rief auch Spiekermann nach schärferen Regeln für die Branche. Die Menschen müssten besser vor "unüberlegten" maschinellen Urteilen geschützt werden.

Das vielfach ins Feld geführte Hauptdilemma "moralischer Maschinen" wie autonomer Autos, ob sie etwa im Notfall eher ein Baby oder einen alten Menschen überfahren sollten, tat Spiekermann, Autorin des jüngst erschienenen Buchs "Digitale Ethik – ein Wertesystem für das 21. Jahrhundert" als Ablenkung ab. Die wahren Gefahren rund um selbstfahrende Autos bestehe etwa in einer "gigantischen Abhängigkeit" von Konzernen wie Google, wenn diese nur zehn Prozent Marktanteil auf diesem Feld errängen. Sollte die Politik dann doch einmal auf die Idee kommen, sie angesichts ihrer Macht zerschlagen zu wollen, drohe der gesamte Straßenverkehr zusammenzubrechen. (anw)