Was denkt sich die KI?

Seite 2: Zunächst funktioniert die Software ausgezeichnet

Inhaltsverzeichnis

Auf den ersten Blick funktionierte die Software ganz ausgezeichnet und stieß bis Ende 2016 rund 160000 Mahnungen aus. Allerdings gerieten die im Volksmund "Roboterschulden" genannten Rückforderungen schnell in die Kritik, denn die Software machte grobe handwerkliche Fehler. So soll sie laut "Canberra Times" beispielsweise nicht mit verschiedenen Schreibweisen von Firmennamen klargekommen sein. Hatte ein Minijobber in seinem Antrag den Namen seines Arbeitgebers anders geschrieben als in seiner Steuererklärung, nahm die Software einfach an, der Antragssteller habe zwei Jobs gehabt, aber nur von einem das Einkommen angegeben. Nur und 20 Prozent aller Forderungen, zitiert die Zeitung eine interne Untersuchung der Behörde, sollen tatsächlich berechtigt sein.

Folgenreich sind maschinelle Entscheidungen wohl auch für die Strafgefangenen in den USA, für die eine Software namens COMPAS eine Abschätzung traf, wie hoch das Rückfallrisiko liegt. Richter sollten so besser entscheiden können, wer länger in Haft bleiben muss. Erst eine Recherche der Journalistenvereinigung ProPublica brachte zum Vorschein, dass der Algorithmus aus den Trainingsdaten geschlossen hatte, dass die Hautfarbe eines der entscheidenden Merkmale für kriminelle Energie sei.

Ist das Problem nicht in den Griff zu bekommen, dürfte sich künstliche Intelligenz zu einem äußerst bedenklichen Werkzeug entwickeln. Die Frage ist nur: Wie kann eine Lösung aussehen? Naheliegend wäre, entsprechende Faktoren einfach aus den Daten zu löschen. Wenn ein Algorithmus die Hautfarbe eines Bewerbers oder eines Häftlings nicht kennt, kann er sie auch nicht in seine Entscheidung einbeziehen. Das ist aber zu kurz gedacht, betont Sorelle Friedler, Informatikerin am Haverford College in Philadelphia: "Wer alle Daten löscht, aus denen beispielsweise die Hautfarbe hervorgeht, zerstört die Daten komplett."

Denn ein Algorithmus greift nicht nur auf die explizite Nennung einer Eigenschaft zurück, sondern kann sie sich auch aus allerlei anderen Daten herleiten. Im Fall der amerikanischen Strafgefangenen war genau das der Fall: Die Hautfarbe war nicht in den Daten hinterlegt, aber der Algorithmus fand Korrelationen zwischen Wohnort, Lebensumständen oder Name und Hautfarbe. Friedler hat mit einem Forschungsdatensatz ausprobiert, ob diese Rückschlüsse zu verhindern sind – mit wenig Erfolg. "Du kannst alles entfernen, was aus deiner Sicht darauf schließen lässt, und dann versuchen, die Hautfarbe vorherzusagen", sagt sie. In vielen Fällen hat der Computer es dennoch geschafft.

Ganz auf Deep Learning zu verzichten, kann aus Friedlers Sicht aber nicht die Lösung sein. "Diese Verfahren sind beeindruckend gut darin, Daten zu klassifizieren", sagt sie. "Wir sollten eine Lösung finden, wie sie sich selbst erklären." Und diese ist dringend gefragt: "Das Problem ist schon jetzt aktuell, und es wird in Zukunft noch viel aktueller werden", sagt Tommi Jaakkola, der am Massachusetts Institute of Technology an Anwendungen des maschinellen Lernens forscht. "Egal ob es eine Investitionsentscheidung ist oder eine medizinische oder gar eine militärische Entscheidung: Wir wollen nicht auf eine Black Box vertrauen."

Die Zeit drängt, denn zumindest in Europa wollen die Gesetzgeber Lösungen sehen. Ab 2018 verlangt die Europäische Datenschutzgrundverordnung, dass Entscheidungen, die Personen beeinträchtigen können, nicht ausschließlich auf einer automatisierten Verarbeitung getroffen werden dürfen. Wenn Daten automatisiert verarbeitet werden, verlangt die Regelung Transparenz gegenüber den Betroffenen. Sie müssen Einblick in die Verarbeitungsvorgänge bekommen. Für Deutschland hat Justizminister Heiko Maas Anfang Juni auf einer Tagung des Ministeriums zudem die Einführung eines Antidiskriminierungsgesetzes für Algorithmen vorgeschlagen. "Im Rechtsstaat sind alle Entscheidungen begründungspflichtig. Denn nur so kann überprüft werden, ob die Grundlagen, auf denen sie getroffen wurden, richtig, rechtmäßig und auch verhältnismäßig sind", sagte Maas. "Eine solche Überprüfbarkeit brauchen wir auch, wenn Algorithmen Entscheidungen vorbereiten."

Wie das gelingen kann, ist derzeit eine der spannendsten Fragen in der künstlichen Intelligenz. Ob sie gelöst wird, ist offen. Zum einen dürften sich die Firmen wehren, fürchten sie doch um ihre Betriebsgeheimnisse. "Zudem ist die Erklärbarkeit nur sehr vage formuliert", sagt der Internet-Rechtsexperte Jürgen Täger von der Universität Oldenburg. Er fürchtet, dass die Unternehmen Hintertüren finden werden, die jene Forderung nach Erklärbarkeit doch wieder einschränken.