Voreingenommener Bilder-Algorithmus: Twitter verspricht Nutzern mehr Kontrolle
Tage nachdem ein anscheinend rassistischer Algorithmus für Kritik gesorgt hat, gelobt Twitter Besserung. Man wolle sich weniger auf Technik verlassen.
Nach Kritik an einem Algorithmus ändert Twitter das Vorgehen bei der Anzeige von Bildern in dem Kurzmitteilungsdienst. Der Rückgriff auf Techniken des maschinellen Lernens soll verringert werden und Nutzer sollen mehr Kontrolle über die Anzeige von Bildern bekommen, erklären Parag Agrawal und Dantley Davis in einem Blogeintrag. Der Chief Technology Officer und der Chief Design Officer des US-Konzerns hatten vor einigen Tagen bereits öffentlich auf die Experimente reagiert, mit denen Nutzer darauf aufmerksam gemacht hatten, dass der Algorithmus zur Bildauswahl die Gesichter weißer Menschen zu bevorzugen scheint.
Vorschau benachteiligt offenbar Schwarze
Als er auf einen Fehler der Videokonferenz-Software Zoom hinweisen wollte, die immer den Kopf eines Schwarzen Mannes überblendete, hatte ein Doktorand zufällig eine scheinbare Ungleichbehandlung auf Twitter gefunden. Ein Algorithmus, der den mutmaßlich interessantesten Bereich eines Bildes herausfinden und darauf fokussieren soll, scheint Porträts weißer Menschen zu bevorzugen. Selbst, wenn die Positionen in einem Bild getauscht oder dieses einfach gespiegelt wird, landet in der Vorschau oft hartnäckig ein und dasselbe Gesicht, hatten Versuche anderer Nutzer dann ergeben. Daraufhin hatten sich die beiden Manager von Twitter eingeschaltet und eine Analyse versprochen.
Wie Agrawal und Davis nun schreiben, hätten ihre eigenen Experimente keine Bevorzugung einer bestimmten Bevölkerungsgruppe oder eines bestimmten Geschlechts ergeben. Trotzdem gebe es die Möglichkeit negativer Ergebnisse, die man besser hätte vorhersehen können. Man wolle den Nutzern deswegen mehr Einfluss auf die Anzeige der Bilder geben. Insgesamt fühle man sich dem Ziel verpflichtet, "What You See Is What You Get". Schon beim Erstellen des Tweets solle ersichtlich sein, wie der am Ende aussieht. Ausnahmen werde es aber weiterhin geben. Die beiden gehen noch darauf ein, dass Voreingenommenheit ("bias") bei Algorithmen aktuell ein großes Thema sei. Man werde weiter daran arbeiten, sie zu verringern: "Es gibt noch viel Arbeit."
(mho)