KI-Avatare von Lensa: Viel Hype, viel Sexismus – unsere Autorin hat es getestet

MIT-Technology-Review-Autorin Melissa Heikkilä lud ihr Bild beim Stable-Diffusion-Bildgenerator Lensa hoch. Heraus kamen oftmals sexualisierte KI-Aufnahmen.

In Pocket speichern vorlesen Druckansicht 257 Kommentare lesen

Was Lensa mit dem Bild der Autorin gemacht hat.

(Bild: Melissa Heikkilä via Lensa)

Lesezeit: 7 Min.
Von
  • Melissa Heikkilä
Inhaltsverzeichnis

Als ich kürzlich die neueste virale KI-Bildgenerator-App Lensa ausprobiert habe, hoffte ich auf ähnlich gute Ergebnisse wie einige meiner Kollegen bei der US-Ausgabe der MIT Technology Review. Die digitale Retusche-App wurde erstmals 2018 vorgestellt, erfreut sich aber in letzter Zeit dank "Magic Avatars", einer KI-gestützten Funktion, die digitale Porträts von Menschen auf der Grundlage von Selfies erstellt, großer Beliebtheit.

Während Lensa realistische und dennoch schmeichelhafte Avatare für meine Kollegen erstellte – Astronauten, wilde Krieger und coole Cover-Fotos für EDM-Musikalben – bekam ich tonnenweise Nacktbilder. Von 100 Avataren, die ich erstellt habe, waren 16 "oben ohne" und bei weiteren 14 war ich in extrem knapper Kleidung und in offenkundig sexualisierten Posen zu sehen.

Ich bin asiatischer Abstammung, und das scheint fast das Einzige zu sein, was das KI-Modell von meinen Selfies aufgeschnappt hat. Ich bekam Bilder von typisch asiatisch aussehenden Frauen, die eindeutig Anime- oder Videospielfiguren nachempfunden waren. Oder höchstwahrscheinlich sogar aus Pornos, wenn man bedenkt, dass ein großer Teil meiner Avatare viel Haut zeigte. Ein paar meiner Avatare schienen zu weinen. Eine meiner Kolleginnen weißer Hautfarbe erhielt deutlich weniger sexualisierte Bilder, darunter ein paar Nacktbilder und Andeutungen von Dekolletés. Eine andere Kollegin mit chinesischer Herkunft erhielt ähnliche Ergebnisse wie ich: jede Menge pornografische Avatare.

Lensas scheinbarer Fetisch für asiatische Frauen ist so stark, dass ich weibliche Nacktbilder und sexualisierte Posen erhielt, selbst wenn ich die App anwies, Avatare von mir als Mann zu erstellen. Die Tatsache, dass meine Ergebnisse so übersexualisiert sind, ist allerdings nicht überraschend, sagt Aylin Caliskan, Assistenzprofessorin an der University of Washington, die sich mit reproduzierten Vorurteilen und Bias in KI-Systemen beschäftigt. Lensa generiert seine Avatare mittels Stable Diffusion, einem Open-Source-KI-Modell, das Bilder auf der Grundlage von Texteingaben erzeugt. Stable Diffusion basiert wiederum auf LAION-5B, einem riesigen Open-Source-Datensatz, der durch das Auslesen von Bildern aus dem Internet zusammengestellt wurde. Dieses Material ist offenbar nur wenig gefiltert.

Da das Internet voll ist mit Bildern von nackten oder kaum bekleideten Frauen – sowie mit Aufnahmen, die sexistische und rassistische Stereotypen widerspiegeln –, ist der Datensatz auch auf diese Art von Bildern ausgerichtet. Dies führt zu KI-Systemen, die Frauen sexualisieren, unabhängig davon, ob sie so dargestellt werden wollen, sagt Caliskan. Das gelte insbesondere für Frauen aus (einst) benachteiligten Gruppen.

Manche Modelle sind offenbar voll von rassistischen Stereotypen, Pornografie und sogar Vergewaltigungsbildern, wie die Forscher Abeba Birhane, Vinay Uday Prabhu und Emmanuel Kahembwe herausfanden, die einen Datensatz analysierten, der Stable Diffusion ähneln soll. Bemerkenswert ist, dass ihre Ergebnisse nur möglich waren, weil der LAION-Datensatz Open Source ist. Die meisten anderen populären KIs zur Bilderzeugung, wie z. B. Imagen von Google und DALL-E von OpenAI, sind nicht offen. Sie werden aber auf ähnliche Weise und mit ähnlichen Trainingsdaten entwickelt, was darauf schließen lässt, dass es sich um ein branchenweites Problem handelt.

Stability.AI, das Unternehmen, das Stable Diffusion entwickelt hat, brachte Ende November eine neue Version des KI-Modells heraus. Ein Sprecher sagt, dass das ursprüngliche Modell mit einem Sicherheitsfilter veröffentlicht wurde, den Lensa anscheinend nicht verwendet hat, da er diese Ergebnisse entfernen würde. Eine Möglichkeit, wie Stable Diffusion 2.0 Inhalte filtert, besteht darin, Bilder zu entfernen, die sich häufig wiederholen. Je häufiger etwas wiederholt wird, wie z. B. asiatische Frauen in sexuell expliziten Szenen, desto stärker wird die Assoziation im KI-Modell.

Caliskan hat sich mit CLIP (Contrastive Language Image Pretraining) beschäftigt, einem System, das Stable Diffusion bei der Erstellung von Bildern unterstützt. CLIP lernt, Bilder in einem Datensatz mit beschreibenden Textaufforderungen abzugleichen. Caliskan stellte fest, dass es voller problematischer geschlechts- und rassenspezifischer Vorurteile war. "Frauen werden mit sexuellen Inhalten assoziiert, während Männer mit professionellen, karrierebezogenen Inhalten in allen wichtigen Bereichen wie Medizin, Wissenschaft, Wirtschaft usw. assoziiert werden", sagt Caliskan.

Komischerweise waren meine Lensa-Avatare realistischer, sobald meine Bilder durch den "männlichen" Inhaltsfilter liefen. Es kamen Avatare von mir bekleidet (!) heraus sowie in neutralen Posen. Auf mehreren Bildern trug ich einen weißen Kittel, der entweder zu einem Koch oder einem Arzt zu gehören schien.

Aber es sind nicht nur die Trainingsdaten, die schuld an dem Problem sind. Die Unternehmen, die diese Modelle und Anwendungen entwickeln, treffen aktive Entscheidungen, wie sie die Daten verwenden, sagt Ryan Steed, Doktorand an der Carnegie Mellon University, der Verzerrungen in Bilderzeugungsalgorithmen untersucht hat. "Jemand muss die Trainingsdaten auswählen, sich für die Erstellung des Modells entscheiden und bestimmte Schritte unternehmen, um diese Verzerrungen abzumildern oder eben nicht", sagt er. Die Entwickler der App haben also womöglich bewusst entschieden, dass männliche Avatare in Raumanzügen erscheinen, während weibliche Avatare G-Strings und Feenflügel bekommen.

Ein Sprecher von Prisma Labs, die für die Lensa App verantwortlich sind, sagt, dass eine "sporadische Sexualisierung" von Fotos bei Menschen aller Geschlechter vorkomme, aber auf "unterschiedliche Weise". Da Stable Diffusion auf ungefilterten Daten aus dem Internet trainiert wird, könnten weder der App-Entwickler noch Stability.AI bewusst einen Darstellungsbias anwenden noch absichtlich "konventionelle Schönheitselemente integrieren". Die von Menschen gemachten ungefilterten Online-Daten hätten das Modell mit den bestehenden Vorurteilen der Menschheit gefüttert, so der Sprecher.

Trotzdem behauptet das Unternehmen, dass es daran arbeitet, das Problem zu beheben. In einem Blogbeitrag erklärt Prisma Labs, dass es die Beziehung zwischen bestimmten Wörtern und Bildern so angepasst hat, dass vorurteilsbehaftete Ergebnisse reduziert werden. Der Sprecher ging aber gegenüber MIT Technology Review nicht näher darauf ein. Stable Diffusion hat es ebenfalls schwieriger gemacht, explizite Inhalte zu generieren, die Macher der LAION-Datenbank haben NSFW-Filter eingeführt.

Lensa ist die erste derart beliebte App ihrer Art, die auf der Grundlage von Stable Diffusion entwickelt wurde. Es wird nicht die letzte sein. Sie mag lustig und unschuldig wirken, aber nichts hält Menschen davon ab, sie zu nutzen, um auf der Grundlage von Bildern aus sozialen Medien unerlaubte explizite Inhalte von Frauen zu erzeugen oder sogar Nacktbilder von Kindern zu erstellen, wenn nicht adäquat gefiltert wird.

Stereotypen und Vorurteile, die dadurch gefördert werden, können sich als sehr nachteilig darauf auswirken, auf das Selbstbild und die Psyche, warnt Caliskan. "Wenn wir in 1.000 Jahren zurückblicken und durch diese Bilder unsere Gesellschaft und Kultur reproduzieren, wollen wir dann die Frauen so sehen?", sagt sie.

(jle)