Bin ich schön?

Es gibt unfaire Algorithmen und welche mit Vorurteilen – und auf dem Weg zur neutralen Urteilsfähigkeit lauern die Fallen der Selbstüberlistung.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 3 Min.
Von
  • Peter Glaser

Der Alltag in den Industrienationen ist immer selbstverständlicher durchsetzt von KI-Technologie. In San Francisco gibt es in jeder der drei Locations von "Cafe X" einen Robot-Barista, der Getränke zubereitet. Da auch Roboter gelegentlich eine helfende Hand brauchen, sind immer auch Mitarbeiter zugegen, die technische Probleme beheben oder Gästen die Abläufe erklären. Im Restaurant "Creator" im South of Market-Distrikt werden die Burger von zwei riesigen Robotern zubereitet ("Trau keinem dünnen Koch") – jeder schafft bis zu 120 Stück pro Stunde –, während ein Dutzend Menschen mit ihm mitarbeitet.

Sie füttern die Roboter mit Nachschub, beschreiben den Gästen das Essen und nehmen Bestellungen auf. Ein paar von ihnen sind Testingenieure, die sicherstellen sollen, dass die Maschinen, deren Entwicklung vor acht Jahren begonnen hat, reibungslos arbeiten. Für Alex Vardakostas, den Boss, ist ausschlaggebend, dass das Unternehmen es sich leisten kann, Burger für sechs Dollar zu verkaufen und zugleich kleine Lebensmittelhersteller und Viehzüchter im Umland zu unterstützen: "Wir haben die Möglichkeit dazu, weil es durch die Roboter das effizienteste Burger-Restaurant ist."

Bei Problemen mit den Maschinen müssen nach wie vor Menschen eingreifen. Denn bislang gibt es keine mathematische Methode, um zu beweisen, dass ein Algorithmus frei von Fehlern abläuft. "Die meisten verfügbaren Computerprogramme sind nicht ausreichend theoretisch fundiert", schrieb der Altmeister der Computerkritik Joseph Weizenbaum bereits 1977 in seinem Klassiker "Die Macht der Computer und die Ohnmacht der Vernunft." Daran hat sich nicht viel geändert. Nun kommen ganz neue Komplikationen hinzu, etwa die Erkenntnis, dass mit den Trainingsdaten, die das populäre Deep Learning in Gang setzen sollen, oft auch Vorurteile transportiert werden, die sich beispielsweise in der Verteilung bestimmter Datenmerkmale zeigen.

Schönheitswettbewerben werden oft unfaire Praktiken und Mauschelei vorgeworfen. Um dem schlechten Ruf entgegenzuwirken, veranstaltete die Firma Beauty.AI einen Online-Schönheitswettbewerb und nutzte dafür einen KI-Algorithmus, der Merkmale wie Gesichtssymmetrie, Falten und Hautunreinheiten erkennen konnte, als Juror. Er sollte die Teilnehmer herausfinden, die am ehesten "menschliche Schönheit" verkörpern – eingeladen waren Frauen und Männer. Wie sich zeigte, benachteiligt der Algorithmus Frauen mit dunkler Hautfarbe. Sechstausend Menschen aus aller Damen und Herren Länder hatten ihre Fotos eingereicht. Von den 44 Gewinnern war nur ein einziger dunkelhäutig.

Aaron Weyenberg, Leiter der Forschungs- und Entwicklungsabteilung der durch ihre Kurzvorträge auf Youtube berühmten Innovationskonferenz TED in New York, suchte nach einer Möglichkeit, Jobbewerber ohne die Auswirkungen unbewusster Befangenheit algorithmisch auszuwählen. Er programmierte eine Erweiterung für den Chrome-Browser, die automatisch die LinkedIn-Profilbilder der Kandidaten durch zufällige Hundebilder ersetzt.

Nice try. Aber Menschen haben Assoziationen zu allen möglichen Dingen – auch zu Hunden. Und Dobermänner haben eine andere Reputation als Golden Retriever. Wenn man jemanden mit einem Bild von einem Pitbull seht, zieht man bestimmte Rückschlüsse, selbst wenn sie falsch sein könnten. Jedenfalls muss, wer mit künstlicher Intelligenz zu tun hat, aufpassen wie ein Schießhund, wo überall unerwartete Nebenwirkungen und Sicherheitslücken auftreten können.

(bsc)