MIT Technology Review 6/2021
S. 16
Fokus
KI-Ethik

Hey KI!

Spracherkennung, Chatbots, Übersetzungen und mehr: Künstliche Intelligenz steuert Dienste, die wir jeden Tag nutzen. Dabei reproduziert sie Vorurteile und Diskriminierungen und verstärkt so gesellschaftliche Ungleichheit. Forscher wollen diese Verzerrungen reduzieren und KI gerechter und offener gestalten. Kann das gelingen?

Von Eva Wolfangel

Es war ein beeindruckendes Experiment, das die Forscher von Nvidia im Dezember 2018 demonstrierten: Ein System des maschinellen Lernens hatte künstliche Bilder von Gesichtern generiert – so realistisch, dass sie für das menschliche Auge nicht als Fälschungen zu erkennen waren. Die Gesichter sehen aus wie von echten Menschen. Gleichzeitig war kein echtes Gesicht dabei, es handelte sich um komplett neu erstellte Bilder.

Das war womöglich der Startpunkt eines Hypes, der seither Wellen schlägt: synthetische Daten. Denn wenn eine KI es schafft, Gesichter zu generieren, ohne dass diese von realen Gesichtern zu unterscheiden sind, lassen sich offensichtlich Daten erstellen, die nichts mit echten Menschen zu tun haben, aber Menschen perfekt repräsentieren. Synthetische Daten haben in der Forschung neue Hoffnungen geweckt, das „alte“ Datenproblem maschinellen Lernens endgültig zu lösen.