MIT Technology Review 1/2021
S. 105
Fundamente
Rückschau/Vorschau

KI liegt daneben

An dieser Stelle blicken wir zurück auf Artikel, die vor fünf Jahren in Technology Review erschienen sind. Diesmal: rassistische Algorithmen.

Vor fünf Jahren war die Hoffnung groß, dass Computer „neutrale“, „objektive“ oder gar „faire“ Entscheidungen treffen könnten. Doch TR warnte damals schon vor „drastischen Auswirkungen“. Schließlich fällen Maschinen Entscheidungen auf der Basis von Datenmustern, die gesellschaftliche Vorurteile verstärken können. „Im 21. Jahrhundert haben wir es mit Maschinen zu tun, die handeln und beispielsweise entscheiden, wer eingestellt wird oder wer als Terrorist verdächtigt wird“, ­zitierten wir die Techniksoziologin Zeynep Tufekci im Artikel.

Wie richtig die Warnung war, hat sich seither in vielen Fällen gezeigt: Ein Algorithmus von Amazon etwa beschloss 2018, dass lediglich Wohngebiete von Weißen am selben Tag beliefert werden sollten. Die Journalistenvereinigung ProPublica deckte 2016 auf, dass ein Computersystem, das US-Haftrichter bei der Frage unterstützen sollte, welche Gefangenen vorzeitig zu entlassen sind, Schwarze systematisch benachteiligte. Google übersetzt bis heute „the doctor and the nurse“ als „der Arzt und die Krankenschwester“ – obwohl es ebenso gut „die Ärztin und der Pfleger“ heißen könnte.

TECHNOLOGY REVIEW 1/2016: Zutreffende Warnung.

Heute kommt keine KI-Konferenz um Ethik-Panels herum, die sich der Frage widmen, wie ein rassistischer oder sexistischer Bias eliminiert oder zumindest rechtzeitig erkannt werden kann. Bis heute gibt es keine gute Lösung.

Auch dass maschinelle Entscheidungen schwer nachzuvollziehen sind, hatte der TR-Artikel seinerzeit thematisiert. Eric Horvitz, damals bei Microsoft Research, sagte: „Maschinelles Lernen erschwert es dem Einzelnen zunehmend zu verstehen, was andere über ihn wissen können auf Basis jener Dinge, die er geteilt hat.“ Das zeigte sich unter anderem bei der US-Präsidentschaftswahl 2016, als das Trump-Lager versuchte, potenzielle Wähler basierend auf Facebook-Daten mit personalisierten Botschaften anzusprechen.

Und auch die Forderung des Philosophen Tobias Matzner klang nahezu rebellisch in der damaligen Big-Data-Begeisterung: Statt auf immer mehr Daten zu hoffen, müsse „wieder der Mensch ins Spiel kommen“. Wer heute die Forscher eines beliebigen Tech-Konzernes fragt, wie sie sicherstellen, dass ihr System nicht völligen Unsinn macht, bekommt spätestens im zweiten Satz zu hören, der „human in the loop“ sei unabdingbar. Heute gilt dieser Mensch im Prozess allerdings als Gütesiegel, nicht mehr als Makel. Eva Wolfangel