Forscher schlagen Alarm: KI bestimmt Hautfarbe aus Röntgenbildern

Wissenschaftler warnen vor rassistischer Benachteiligung durch medizinische KI. Helfen synthetische Daten, dieses Problem zu lösen?

In Pocket speichern vorlesen Druckansicht 275 Kommentare lesen

(Bild: Kiselev Andrey Valerevich / Shutterstock.com)

Lesezeit: 2 Min.
Von

Tiefe neuronale Netze aus Röntgenaufnahmen können die Ethnie des jeweiligen Patienten bestimmen – obwohl Daten, aus denen das leicht zu schließen wäre, explizit nicht mitgeliefert wurden. Das hat eine internationale Forschungsgruppe aus Australien, Kanada und den USA gezeigt.

Die Forschenden wollen mit ihrer Arbeit auf die Gefahr aufmerksam machen, dass selbstlernende Algorithmen in der Medizin Menschen unterschiedlicher ethnischer Zugehörigkeit unterschiedlich behandeln. Solch ein Bias könne selbst dann auftreten, wenn die KI die Ethnie nicht explizit erkennen soll. Technische Einzelheiten beschreiben die Forscher in einem Paper, das sie auf dem Preprint-Server ArXiv veröffentlicht haben.

Frühere Studien zeigten, dass diese Befürchtung durchaus real ist. 2019 wurde beispielsweise festgestellt, dass ein in den USA weitverbreiteter Algorithmus zur Priorisierung der Versorgung der kränksten Patienten Afroamerikaner benachteiligt. Um solch eine algorithmische Benachteiligung auszuschließen, werden die entsprechenden Daten zwar zunehmend gelöscht. Die neue Studie zeigt aber deutlich, dass das nicht reicht. Zumal die Forscher selbst nicht erklären können, aufgrund welcher Merkmale die Klassifizierung funktioniert: Indirekte visuelle Merkmale, die auf den BMI, die Knochendichte, Alter, Geschlecht oder spezifische Diagnosen hindeuten, schließen sie wegen des Studiendesigns aus.

TR 6/2021

Weltweit arbeiten Forschungsteams an der zunehmend drängenderen Frage, wie sich solche Verzerrungen – nicht nur in der Medizin – korrigieren lassen, berichtet Eva Wolfangel in der Titelgeschichte der aktuellen Ausgabe 6/21 von Technology Review (ab Donnerstag am gut sortierten Kiosk oder online bestellbar).

Einige Forscher setzen dabei auf synthetische Trainingsdaten für die KI: Dabei lernt zunächst ein Modell die Eigenschaften eines realen Datensatzes. Das wiederum ist die Grundlage für ein generatives Modell, das lernt, Datensätze mit den gleichen statistischen Eigenschaften zu erzeugen. Wenn man dann feststellt, dass ein Datensatz Lücken aufweist und eine KI deshalb zu diskriminierenden Entscheidungen kommt, kann man mittels künstlich erzeugter Daten des generativen Modells entsprechende Lücken füllen – die Datensätze also gezielt verändern, sodass sie andere Eigenschaften bekommen.

Sandra Wachter vom Oxford Internet Institute hält das jedoch für eine „wunderbare Techbro-Lösung“, wie sie sagt – eine technische Lösung auf Basis einer einseitigen, häufig ebenso diskriminierenden Weltsicht, denn: „Woher nehme ich die Daten?“ Oft existierten nicht einmal genügend echte, um künstliche zu modellieren. Sie schlägt stattdessen vor, KI als „agnostisches Tool einzusetzen, das uns zeigt, wo die Ungerechtigkeit liegt“.

(wst)