Technik gegen Vorurteile

Wenn künstliche Intelligenz Entscheidungen trifft, sind sie nicht immer fair. Große Unternehmen wie Microsoft und Facebook bemühen sich jetzt darum, solche Fälle automatisiert zu erkennen.

vorlesen Druckansicht
Lesezeit: 3 Min.
Von
  • Will Knight

Microsoft arbeitet an einem Werkzeug, das automatisch Verzerrungen in einer Reihe von unterschiedlichen KI-Algorithmen erkennen soll. Dies ist der bislang ambitionierteste Versuch, die Erkennung von Unfairness zu automatisieren, die sich bei Maschinenlernen einschleichen könnte. Unternehmen könnte er dabei helfen, künstliche Intelligenz zu verwenden, ohne dabei versehentlich bestimmte Menschen zu diskriminieren.

Mehr Infos

Große Technologie-Unternehmen liefern sich ein Wettrennen darum, als erste gebrauchsfertige Technologie für Maschinenlernen zu verkaufen, die sich über die Cloud nutzen lässt. Doch je mehr Kunden solche Algorithmen nutzen, um automatisch wichtige Bewertungen vorzunehmen, desto bedeutender wird das Problem der Verzerrungen darin. Weil sie sich bei Modellen für Maschinenlernen leicht einschleichen können, könnten Methoden zur automatisierten Erkennung solcher Unfairness zu einem wertvollen und wichtigen Teil des KI-Werkzeugkastens werden.

„Sachen wie Transparenz, Verständlichkeit und Erklärung sind so neu für das Gebiet, dass nur wenige von über genügend Erfahrung verfügen, um auf alles zu achten, das wichtig ist, und alle Möglichkeiten zu kennen, wie Verzerrungen in unsere Modelle geraten können“, sagt Rich Caruna, ein hochrangiger Forscher bei Microsoft, der dort an der Verzerrungserkennung arbeitet.

Algorithmische Verzerrungen sind eine wachsende Sorge für viele Forscher und Technologie-Experten. Wenn wichtige Entscheidungen mittels Algorithmen automatisiert werden, besteht die Gefahr, dass auch Verzerrungen automatisiert und im großen Maßstab eingesetzt werden, was für die Betroffenen dann schwieriger zu erkennen wird.

Laut Caruna soll das Produkt von Microsoft KI-Forschern dabei helfen, mehr Fälle von Unfairness zu entdecken, allerdings nicht alle. „Natürlich können wir keine Perfektion erwarten – es wird immer Verzerrungen geben, die nicht erkannt werden oder nicht behoben werden können. Das Ziel ist, so gut zu sein wie möglich“, erklärt er.

„Das Wichtigste, was Unternehmen jetzt tun können, ist, ihre Mitarbeiter darüber aufzuklären, damit sie sich der unzähligen Möglichkeiten bewusst sind, wie Verzerrungen auftreten und sich manifestieren können, und Werkzeuge entwickeln können, mit denen die Modelle leichter zu verstehen und Verzerrungen leichter zu entdecken sind“, sagt Caruna.

Bei seiner jährlichen Entwickler-Konferenz Anfang Mai hat in diesem Jahr auch Facebook ein eigenes Werkzeug zum Aufdecken von Verzerrungen angekündigt. Die Lösung namens Fairness Flow gibt automatisch Warnungen aus, wenn ein Algorithmus unfaire Bewertungen auf der Grundlage von Ethnie, Geschlecht oder Alter vornimmt. Laut Facebook wird Fairness Flow dringend gebraucht, weil immer mehr Personen im Unternehmen KI für wichtige Entscheidungen nutzen.

Bin Yu, Professorin an der University of California in Berkeley, bezeichnet die Werkzeuge von Microsoft und Facebook als Schritt in die richtige Richtung. Große Unternehmen sollten externe Experten beschäftigen, die ihre Algorithmen untersuchen, um sicherzustellen, dass sie ohne Verzerrungen arbeiten, schlägt sie vor. „Jemand anderes muss die Algorithmen von Facebook untersuchen – sie dürfen nicht für alle geheim sein“, sagt die Forscherin.

(sma)