Warum erkennen KI-Systeme Menschen mit Behinderungen so schlecht?

Künstliche Intelligenzen behandeln nicht immer alle Menschen gleich. Besonders schwer tun sie sich damit, Menschen mit Behinderungen zu berücksichtigen. IBM-Forscherin Shari Trewin will das ändern.

In Pocket speichern vorlesen Druckansicht
Warum erkennen KI-Systeme Menschen mit Behinderungen so schlecht?

(Bild: Doug Maloney/Unsplash)

Lesezeit: 6 Min.
Von
  • Karen Hao

Maschinelles Lernen kämpft insbesondere bei der ethnischen Zugehörigkeit und bei Geschlechtern mit Vorurteilsproblemen. Einige dieser Fälle haben massive Kritik und Schlagzeilen ausgelöst: Gesichtserkennungssysteme, die schwarze Frauen nicht identifizieren – oder automatisierte Rekrutierungsinstrumente, die aus unerfindlichen Gründen weibliche Kandidaten übergehen. Eine Gruppe aber haben Forscher bei ihren Bemühungen, solche Benachteiligungsprobleme auszumerzen, bisher übersehen: Menschen mit Behinderungen. Das lässt sich etwa am Beispiel selbstfahrender Autos illustrieren. Ihre Algorithmen lernen aus Trainingsdaten, wie Fußgänger aussehen, damit die Fahrzeuge sie nicht überfahren. Wenn aber in den Trainingsdaten keine über Rollstuhlfahrer enthalten sind, könnte die Technologie diese Menschen sogar in Lebensgefahr bringen.

Für Shari Trewin, eine Forscherin des IBM-Teams für Barrierefreiheit, ist dies nicht akzeptabel. Im Rahmen einer neuen Initiative erforscht sie nun neue Designprozesse und technische Methoden, um die Voreingenommenheit der Maschinen gegenüber Menschen mit Behinderungen abzumildern. Im Interview mit Technology Review erklärt sie einige der Herausforderungen und mögliche Lösungen.

Technology Review: Warum ist maschinelle Fairness gegenüber Menschen mit Behinderungen ein anderes Problem als gegenüber Menschen aus bestimmten ethnischen Gruppen oder einem spezifischen Geschlecht?

Shari Trewin: Die meisten KI-Systeme modellieren ethnische Gruppen oder Geschlechter als einfache Variable mit einer kleinen Anzahl möglicher Werte. Aber wenn es um Behinderungen geht, gibt es viele verschiedene Formen und Schweregrade. In den USA hat etwa jeder fünfte Mensch eine Behinderung. Einige von ihnen sind dauerhaft, andere nur vorübergehend. Das lässt sich nicht mit einigen wenigen Werte abbilden. Möglicherweise gibt es dann ein System, das nur Blinde, nicht aber Gehörlose diskriminiert. Da wird es viel schwieriger, die Fairness der Systeme zu testen.

Darüber hinaus verraten Menschen Informationen über ihre Behinderung oft nur widerstrebend, während sie weniger Probleme damit haben, ihr Geschlecht, Alter oder die ethnische Zugehörigkeit anzugeben. In manchen Situationen ist es sogar illegal, mögliche Behinderungen zu erfragen. In vielen Fällen ist deshalb kaum bekannt, ob jemand eine Behinderung hat oder nicht. Das macht es auch viel schwieriger zu wissen, ob man ein faires System vor sich hat.

Die Gesellschaft hat sich dafür entschieden, dass wir Diskriminierung aufgrund einer Behinderung am besten dadurch vermeiden, dass dieser Status nicht offengelegt wird. Warum sollte das nicht auch für Systeme aus dem Bereich des maschinellen Lernens gelten?

Ja, die meisten Leute nehmen tatsächlich an: Wenn das System nichts über den Behindertenstatus von Personen weiß, wird es sicherlich fair sein. Allerdings beeinflusst die Behinderung oft andere Informationen, die in das Modell eingegeben werden. Angenommen, ich bin eine Person, die einen Bildschirmvorleser für den Zugriff auf das Web verwendet, und ich bewerbe mich online. Wenn die Bewerbungsseite nicht gut auf solche Screen Reader ausgerichtet ist, brauche ich länger für das Antworten. Wenn diese Zeit bei meiner Beurteilung nicht korrekt berücksichtigt wird, hat jeder, der dasselbe Werkzeug mit einer ähnlichen Behinderung verwendet, einen systematischen Nachteil – selbst wenn das System gar nicht weiß, dass ich blind bin.

Ist es angesichts so vieler Arten von Behinderung überhaupt möglich, faire KI-Systeme zu entwickeln?

Ich denke, die grundlegendere Herausforderung für die KI-Gemeinde besteht darin, mit Sonderfällen umzugehen. Denn Maschinenlernsysteme optimieren anhand von Normen und behandeln Sonderfälle nicht gesondert. Menschen mit Behinderungen entsprechen jedoch oft nicht der "Norm". Die Tatsache, dass maschinelles Lernen Menschen danach beurteilt, wem sie ähnlich sind – selbst wenn es nie zuvor jemanden gesehen hat, der ihnen tatsächlich ähnlich ist –, ist eine gravierende Einschränkung für eine faire Behandlung bei Behinderungen.

Viel besser wäre eine Methode, die maschinelles Lernen mit einer zusätzlichen Lösung kombiniert, beispielsweise mit logischen Regeln, die in einer darüber liegenden Schicht implementiert sind. Es gibt auch einige Situationen, bei denen mehr Aufmerksamkeit bei der Erfassung vielfältigerer Datensätze hilfreich wäre. Einige Leute experimentieren zum Beispiel mit Techniken, Kerndaten herauszunehmen und diese auf Sonderfälle zu trainieren.

Wie wirkt es sich konkret aus, wenn Menschen ihre Behinderung nicht preisgeben wollen?

Oft sind KI-Systeme auf etwas optimiert, das nicht auf das Wohlbefinden der Menschen zielt, die von den Entscheidungen tatsächlich betroffen sind. Diese Auswirkungen müssen im Entwurfsprozess viel mehr Bedeutung bekommen, damit wir nicht nur ein System einführen, das untersucht, wie viel Geld wir sparen oder wie effizient wir die Mitarbeiterinformationen verarbeiten können. Wir brauchen auch neue Wege, um Systeme zu beurteilen, die auf Auswirkungen für die Endnutzer achten, insbesondere wenn es sich um eine benachteiligte Gruppe handelt.

Wie machen wir das?

Die Prüfung der Fairness ist eine Möglichkeit, diese Auswirkungen zu messen. Die benachteiligte Gruppe in den Gestaltungsprozess einzubeziehen und ihre Bedenken zu berücksichtigen, ist eine andere. Vielleicht kann man auch explizit einige Messwerte für die Zufriedenheit von Interessenvertretern aufnehmen, die man durch Interviews oder Umfragen ermitteln könnte.

Was funktioniert denn bereits gut in diesem Forschungsbereich?

KI-Techiken können Menschen mit Behinderungen durchaus helfen, indem sie beispielsweise mitteilen, was sich im Blickfeld des Handys befindet, wenn man darauf zeigt. Ich denke, wenn wir es richtig machen, besteht für KI-Systeme eine echte Chance, die bisherigen "Human-Only"-Systeme zu verbessern. Es gibt in der heutigen Gesellschaft eine Menge Diskriminierung, Befangenheit und Missverständnisse für Menschen mit Behinderungen. Wenn wir einen Weg finden können, KI-Systeme zu schaffen, die diese Vorurteile beseitigen, können wir anfangen, den Umgang mit Menschen mit Behinderungen zu verändern und die Diskriminierung zu reduzieren.

(vsz)