Amazon: KI zur Bewerbungsprüfung benachteiligte Frauen

Eigentlich wollte Amazon eine Software entwickeln, die unter Bewerbern automatisch die besten findet. Der Algorithmus hatte aber unerwünschte Nebenwirkungen.

In Pocket speichern vorlesen Druckansicht 430 Kommentare lesen
Amazon: KI zur Bewerbungsprüfung benachteiligte Frauen

(Bild: metamorworks/Shutterstock.com)

Lesezeit: 2 Min.

Ein automatisches Bewertungssystem von Bewerbungen bei Amazon wurde größtenteils eingestampft, nachdem der US-Konzern mitbekommen hatte, dass die KI Frauen systematisch benachteiligte. Das geht aus einem Bericht der Nachrichtenagentur Reuters hervor. Demnach war seit 2014 intern ein Algorithmus entwickelt worden, der unter mehreren Bewerbungstexten automatisch jene der vielversprechendsten Bewerber herausfiltern sollte. Dabei bezog die Software sich auf Erkenntnissen aus den Bewerbungen von angenommenen Bewerbern, verdeutlichte dabei aber grundlegende Probleme des maschinellen Lernens in seiner aktuellen Form.

Wie Reuters erklärt, hatte der Algorithmus mit den Datensätzen der angenommen Bewerber trainiert und sollte so quasi lernen, welche Eigenschaften Amazon bevorzugt. Weil das Unternehmen aber Teil einer von Männern dominierten Industrie ist, waren in den zugrunde gelegten vergangenen zehn Jahren vor allem Männer eingestellt worden. Der Algorithmus kam also quasi zu dem Schluss, dass Bewerbungen von Frauen schlechter zu bewerten seien – selbst wenn sich das Geschlecht nur indirekt etwa aus Mitgliedschaften in Frauenvereinen erschließen ließ. Allein das Geschlecht sorgte dabei für die Herunterstufung. Weil Amazon also in der Vergangenheit vorwiegend Männer eingestellt hatte, blieb die KI diesem Auswahlkriterium treu.

Zwar habe das Entwicklerteam die Software später angepasst, aber es konnte nicht garantiert werden, dass die Technik nicht trotzdem weiter diskriminieren würde, schreibt Reuters. Ziel war es vorher eigentlich gewesen, dass die Software den Auswahlprozess komplett übernehmen könnte. Im Lauf der Zeit sei es aber nie über eine Vorschlagsfunktion hinausgegangen. Das Unternehmen habe zu keiner Zeit allein auf Basis des Algorithmus' eingestellt. Dabei hat der US-Onlinehändler in den vergangenen Jahren in beispiellosem Umfang neue Mitarbeiter angeworben. Die besagte Software wird bei Amazon nur noch in deutlich eingeschränktem Umfang eingesetzt, schreibt die Nachrichtenagentur.

Amazons Erfahrungen mit maschinellem Lernen sind nicht neu und decken sich mit ähnlichen Ergebnissen in ganz anderen Bereichen. Zwar gibt es immer wieder Hoffnungen auf völlig neutrale und damit letztliche faire Entscheidungen durch Algorithmen, aber solange die Technik von Menschen programmiert wird und auf menschengemachten Datensätzen beruht, scheint das ein größeres Problem zu sein, als lange gedacht. So benachteiligen Algorithmen, die in den USA routinemäßig eingesetzt werden, um die Rückfallgefahr von Straftätern zu berechnen, systematisch Afroamerikaner. (mho)