Algorithmen benachteiligen Menschen mit Behinderungen

IBM-Forscherin Shari Trewin fordert besser programmierte KI-Systeme, die verschiedene Arten von Versehrtheit erkennen. Das ist aber oft nicht leicht zu erheben.

In Pocket speichern vorlesen Druckansicht 52 Kommentare lesen
Algorithmen benachteiligen Menschen mit Behinderungen

(Bild: Doug Maloney/Unsplash)

Lesezeit: 1 Min.
Von
  • Veronika Szentpetery-Kessler

Künstliche-Intelligenz-Systeme tun sich schwer damit, Menschen mit Behinderungen fair zu behandeln. Das kritisiert die über Barrierefreiheit forschende IBM-Expertin Shari Trewin im Online-Interview "Warum erkennen KI-Systeme Menschen mit Behinderungen so schlecht?" mitTechnology Review. Ein Hauptgrund dafür sei, dass Maschinenlernsysteme nicht darauf programmiert würden, die Vielzahl verschiedener Behinderungen zu berücksichtigen. Stattdessen modellieren sie diese Gruppe ähnlich wie bei verschiedenen ethnische Gruppen oder den Geschlechtern als einfache Variable mit zu wenigen möglichen Werten.

Darüber hinaus sei nicht immer bekannt, ob eine Person etwa taub oder blind ist. Menschen versuchen, Diskriminierung aufgrund von Behinderungen zu vermeiden, indem sie diese Informationen bewusst nicht erheben. "Die meisten Leute nehmen tatsächlich an: Wenn das System nichts über den Behindertenstatus von Personen weiß, wird es sicherlich fair sein. Allerdings beeinflusst die Behinderung oft andere Informationen, die in das Modell eingegeben werden", sagt Trewin. Wenn zum Beispiel Webseiten für Online-Bewerbungen nicht für Bildschirmvorlese-Systeme ausgelegt sind, brauchen blinde Bewerber länger zum Navigieren und Antworten und werden systematisch benachteiligt. Nötig seien deshalb KI-Systeme, die besser auf solche Sonderfälle trainiert sind.

Mehr dazu in Technology Review online in:

(vsz)