KI: Wie Forscher sie gerechter und offener gestalten wollen
Spracherkennung, Chatbots, Ăśbersetzungen: KĂĽnstliche Intelligenz steuert Dienste, die wir alle nutzen. Dabei reproduziert sie Vorurteile und Diskriminierungen.
- Eva Wolfangel
Es war ein beeindruckendes Experiment, das die Forscher von Nvidia im Dezember 2018 demonstrierten: Ein System des maschinellen Lernens hatte künstliche Bilder von Gesichtern generiert – so realistisch, dass sie für das menschliche Auge nicht als Fälschungen zu erkennen waren. Die Gesichter sehen aus wie von echten Menschen. Gleichzeitig war kein echtes Gesicht dabei, es handelte sich um komplett neu erstellte Bilder.
Das war womöglich der Startpunkt eines Hypes, der seither Wellen schlägt: synthetische Daten. Denn wenn eine KI es schafft, Gesichter zu generieren, ohne dass diese von realen Gesichtern zu unterscheiden sind, lassen sich offensichtlich Daten erstellen, die nichts mit echten Menschen zu tun haben, aber Menschen perfekt repräsentieren. Synthetische Daten haben in der Forschung neue Hoffnungen geweckt, das "alte" Datenproblem maschinellen Lernens endgültig zu lösen.
Denn Systeme maschinellen Lernens weisen einen Bias auf. Diese Verzerrung führt dazu, dass einige dieser Systeme Minderheiten diskriminieren oder für diese schlechter funktionieren. Das wurde immer wieder darauf zurückgeführt, dass die Trainingsdaten, auf deren Basis künstliche Intelligenz sich selbst Zusammenhänge erschließt, nicht repräsentativ sind. So enthalten die klassischen Datensätze für das Training von Bilderkennungsalgorithmen beispielsweise überproportional viele Bilder von weißen Männern. Sprachmodelle werden auf der Basis westlicher Kultur trainiert, Minderheitensprachen sind häufig kaum bis gar nicht abgebildet – entsprechend schlecht funktioniert Spracherkennung für solche Sprachen. Häufig führt das auch zu ungerechten Entscheidungen: Vom Amazon-Algorithmus, der Bewerbungen von Frauen aussortierte über Kreditscoring-Systeme, die ebenfalls Frauen niedrigere Kredite einräumen bis hin zum Gerichts-System, das Richtern vorschlug, Afroamerikaner länger in Haft zu lassen als Weiße.
Das war die Leseprobe unseres heise-Plus-Artikels "KI: Wie Forscher sie gerechter und offener gestalten wollen". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.