c't 8/2020
S. 74
Titel
Algorithmen: Ethik
Bild: Albert Hulm

Ethik für Algorithmen

Wie man verhindern will, dass Software Böses tut

Algorithmen sollen fair sein, ­trans­parent und nachvollziehbar – solche oder ähnliche ethischen ­Leitlinien haben derzeit Konjunktur. Aber braucht man überhaupt neue Regeln und lassen sich diese immer um­setzen?

Von Sylvester Tremmel

Algorithmen sind fester Bestandteil unserer Gesellschaft. Sie erleichtern das Leben in unzähligen Situationen, vernetzen Menschen mit Gleichgesinnten und navigieren in unbekannten Städten. Dieselben Algorithmen können aber zum Problem werden, wenn man sie nicht kontrolliert und versteht. Ein System, das Gleichgesinnte zusammenführt, schließt schon fast zwingend Andersdenkende aus. Wenn es zu viel oder zu unkontrolliert Einfluss gewinnt, kann es Gesellschaften spalten und letztlich demokratische Mechanismen gefährden.

Solche Befürchtungen sind nicht aus der Luft gegriffen, immer wieder hört man von Systemen, die an gesellschaftlich relevanten Punkten zum Einsatz kommen und dann unbeabsichtigtes Verhalten zeigen. Bekanntes Beispiel ist ein von Amazon entwickeltes System zur Beurteilung von Bewerbern – bei dem sich zeigte, dass es systematisch Frauen benachteiligt [1]. Noch bedenklicher ist der ebenfalls recht berühmte Fall des Systems COMPAS, das in den USA die Rückfallwahrscheinlichkeit von Straftätern berechnet. Es hat damit direkt Einfluss auf die Länge der verhängten Haftstrafen. Studien werfen dem System vor weitgehend nutzlos zu sein und – noch schlimmer – das Rückfallrisiko von schwarzen Angeklagten grundsätzlich zu über- und das von weißen Angeklagten zu unterschätzen [2].

Kommentare lesen (1 Beitrag)