Künstliche Intelligenz mit Vorurteilen: Microsoft will unfaire KI erkennen lassen

Entscheidungen durch künstliche Intelligenz können Menschen diskriminieren. Lässt sich das Problem durch Technologie lösen?

In Pocket speichern vorlesen Druckansicht 93 Kommentare lesen
Microsoft arbeitet an Lösung zur automatischen Erkennung unfairer KI

(Bild: Noun Project | Andrejs Kirma | Ms. Tech)

Lesezeit: 2 Min.
Von
  • Sascha Mattke

Der Softwarekonzern Microsoft entwickelt ein Werkzeug, das automatisch Verzerrungen in einer Reihe von unterschiedlichen KI-Algorithmen erkennen soll. Dies ist der bislang ambitionierteste Versuch, die Erkennung von Unfairness zu automatisieren, die sich bei Entscheidungen auf der Grundlage von Maschinenlernen einschleichen könnte. Unternehmen könnte er dabei helfen, künstliche Intelligenz zu verwenden, ohne dabei versehentlich bestimmte Menschen zu diskriminieren. Das berichtet Technology Review online in „Technik gegen Vorurteile“.

Mehr Infos

Große Technologie-Unternehmen liefern sich derzeit ein Wettrennen darum, als erste gebrauchsfertige Technologie für Maschinenlernen zu verkaufen, die sich über die Cloud nutzen lässt. Doch je mehr Kunden solche Algorithmen nutzen, um automatisch wichtige Bewertungen vorzunehmen, desto bedeutender wird das Problem der Verzerrungen darin. Weil sie sich bei Modellen für Maschinenlernen leicht einschleichen können, könnten Methoden zur automatisierten Erkennung solcher Unfairness zu einem wertvollen und wichtigen Teil des KI-Werkzeugkastens werden.

Laut dem Microsoft-Forscher Rich Caruna soll das Produkt von Microsoft KI-Forschern dabei helfen, mehr Fälle von Unfairness zu entdecken, allerdings nicht alle. „Natürlich können wir keine Perfektion erwarten – es wird immer Verzerrungen geben, die nicht erkannt werden oder nicht behoben werden können. Das Ziel ist, so gut zu sein wie möglich“, erklärt er. „Das Wichtigste, was Unternehmen jetzt tun können, ist, ihre Mitarbeiter darüber aufzuklären, damit sie sich der unzähligen Möglichkeiten bewusst sind, wie Verzerrungen auftreten und sich manifestieren können, und Werkzeuge entwickeln können, mit denen die Modelle leichter zu verstehen und Verzerrungen leichter zu entdecken sind“, so der Forscher.

Mehr dazu bei Technology Review online:

(sma)