Algorithmen zur Bildgenerierung: Männer tragen Anzüge, Frauen Bikinis
Algorithmen können inzwischen täuschend echt Fotos aus Bildteilen vervollständigen. Die Ergebnisse sind offenbar so sexistisch wie das Trainingsmaterial.
Auch Algorithmen zur automatischen Generierung von Fotos sind nicht frei von menschlichen Vorurteilen beziehungsweise Stereotypen. Davor warnen die US-Forscher Ryan Steed und Aylin Caliskan nach einer Analyse der beiden wichtigsten dieser Modelle, die gegenwärtig zur Bildvervollständigung eingesetzt werden. Sowohl iGPT als auch SimCLRv2 lernen unbeaufsichtigt fotorealistische Bilder zu erstellen, und zwar anhand von unbeschrifteten Daten. Auch wenn diese erkannte Quelle von Vorurteilen aber eliminiert sei, reproduzierten sie unter anderem sexistische Vorurteile, schreiben die Forscher.
Bilder aus Teilen vervollständigen
iGPT ist ein Algorithmus des Forschungslabors OpenAI aus San Francisco. Das ist vor allem für seine KI-Technik zur Generierung von Texten bekannt, darauf basiert auch iGPT, nur eben spezialisiert auf Fotos. Aus Pixelfolgen eines Bildteils kann die Software auf den Rest eines Bildes schließen und beeindruckte die Fachwelt damit im vergangenen Jahr. SimCLRv2 arbeitet ähnlich und wurde bei Google entwickelt. Beide lernen unbeaufsichtigt mit der beliebtesten Bilddatenbank für Deep Learning, ImageNet. Forscher hatten bereits auf Probleme mit den Beschriftungen in dieser Datenbank hingewiesen, doch die Schwierigkeiten liegen offenbar noch tiefer.
Wie die beiden Forscher nun ermittelt haben, haben beide Algorithmen auch ohne die Metadaten stereotypische Kategorisierungen übernommen. So würden etwa Fotos von Männern und solche von Anzügen enger zueinander in Beziehung gesetzt, als das bei Frauen der Fall sei. Besonders deutlich wird das Problem aber bei der Vervollständigungsaufgabe. So seien Porträts von Frauengesichtern in mehr als 50 Prozent der Versuche um Körper mit großen Brüsten in Badeanzügen oder mit tief ausgeschnittenen Oberteilen ergänzt worden. Männliche Gesichter bekamen derart sexualisierte Oberkörper nur in weniger als 10 Prozent der Fälle spendiert. Stattdessen hätten sie häufig einen Anzug oder berufsspezifische Kleidung bekommen. Die beiden Forscher haben das unter anderem an einem Foto der US-Politikerin Alexandria Ocasio-Cortez getestet, die stark verpixelten Ergebnisse nach Kritik aber aus der Arbeit entfernt, um nicht ihrerseits an der Sexualisierung mitzuwirken.
Tief sitzende Vorurteile
Die Technology Review aus den USA erinnert angesichts der Arbeit daran, dass auch die Geschichte der Deepfakes mit falschen Pornovideos begonnen hat, bei denen es fast ausschließlich um die Generierung von Videos von Frauen gegangen war. Steed und Caliskan wollen ihre Arbeit als Warnung an die Forschergemeinde verstanden wissen, dass Algorithmen menschliche Vorurteile reproduzieren. Das hatten unlängst Forscher für die Sprach-KI GPT-3 unter Beweis gestellt und dargelegt, dass diese Vorurteile gegen den Islam offenbar deutlich tiefer verinnerlicht hat, als bislang gedacht. Das Sprachmodell repliziert antimuslimische Stereotypen stetig und äußerst kreativ, hatten sie mit ausgefeilten Tests belegt.
(mho)