Nicht veranwortungsbewusst: Microsoft beerdigt KI, die Emotionen erkennen soll

Microsoft beschränkt den Zugang zu Gesichtserkennungstechnik und schließt einige Dienste ganz. Die Nachteile seien zu groß.

In Pocket speichern vorlesen Druckansicht 29 Kommentare lesen

(Bild: Microsoft)

Lesezeit: 2 Min.

Microsoft will den Zugang zu Gesichtserkennungsdiensten beschränken, die angeblich mithilfe von KI die Gefühlslage von Menschen erkennen kann. Auch das Geschlecht, das Alter, die Frisur und mögliches Make-up soll nicht mittels Algorithmus ermittelt werden können. Außerdem wird der Zugang zu KI-Gesichtserkennung insgesamt auf vorher formulierte Nutzungsszenarien beschränkt, um einen angemessenen Umgang mit der Technik zu garantieren. Neue Kunden müssen vorher angeben, wofür sie die Technik einsetzen wollen, für Bestandskunden soll es eine Übergangsphase geben. Der Wechsel im Umgang mit Technik für Künstliche Intelligenz (KI) erfolgt im Rahmen einer Überarbeitung des "Responsible AI Standards" von Microsoft, also die Richtlinien für "verantwortungsbewusste KI".

In einem Blogeintrag stellt Natasha Crampton die Änderungen vor, sie ist bei Microsoft "Chief Responsible AI Officer". Es handle sich um einen wichtigen Schritt auf dem Weg zu besserer, vertrauenswürdigerer KI, schreibt sie. In den hauseigenen KI-Standards würde festgeschrieben, wie KI-Technik bei Microsoft entwickelt werden soll, um das Vertrauen der Gesellschaft zu verdienen. Es handle sich um konkrete Zielvorgaben, die bei der KI-Entwicklung angestrebt werden sollen. Sie basieren demnach auf der Arbeit einer interdisziplinären Forschungsgruppe und Erfahrungen mit eigenen Produkten. So habe man bereits den Zugang mit Technik für die Sprachgenerierung beschränkt, um Missbrauch zu verhindern. Ähnlich verfahre man nun mit der Gesichtserkennung.

Crampton bezieht sich in ihrem Eintrag auch auf die anhaltenden Debatten über die Entwicklung und den Einsatz von Künstlicher Intelligenz. So habe man den Umgang mit Sprache-zu-Text-Technik geändert, nachdem in einer Studie dargelegt worden war, dass die für bestimmte afroamerikanische Gruppen doppelt so hohe Fehlerraten aufgewiesen hat, wie für weiße Nutzer und Nutzerinnen. Bei der angeblichen Erkennung von Gemütslagen durch Gesichtserkennungstechnik sei man innerhalb und außerhalb des Konzerns darauf hingewiesen worden, dass man sich in der Wissenschaft überhaupt nicht einig sei, was "Emotionen" sind, geschweige denn, wie die zu erkennen sind. Deshalb müssten jetzt alle KI-Systeme überprüft werden, die sie erkennen sollen. Erstmals vorgestellt worden war die Funktion im November 2015.

(mho)