Künstliche Intelligenz: 175 Milliarden Parameter und dennoch Stereotype

Das Sprach-KI-Modell GPT-3 von OpenAI nutzt 175 Milliarden Parameter. Dennoch bleiben Probleme mit Stereotypen bestehen.

In Pocket speichern vorlesen Druckansicht 63 Kommentare lesen
Künstliche Intelligenz: 175 Milliarden Parameter und dennoch Stereotype

(Bild: Peshkova / shutterstock.com)

Lesezeit: 3 Min.

Das Sprachmodell GPT-3 von Open AI nutzt 175 Milliarden Parameter, um Sätze und Wortgruppen zu bilden. Nun haben die Entwickler ein wissenschaftliches Dokument vorgelegt, in dem sie auch Probleme beschreiben: Selbst mit derart vielen Parametern bleiben etwa Probleme mit Stereotypen bestehen.

175 Milliarden Parameter sind laut des Papers, das auf der Plattform arvix.org veröffentlicht wurde, zehn Mal mehr Parameter als alle bisherigen Sprachmodelle zur Verfügung hatten. Entsprechend seien die Ergebnisse in viele Bereichen eindrucksvoll – etwa bei Übersetzungen, der Beantwortung von Fragen, dem Erkennen von Wörtern und Einsetzen neuer Wörter in einem Satz. Dabei könne vor allem besonders schnell und spontan auf Zusammenhänge reagiert werden, was bisher eines besonderen Feintunings bedurfte. Auch könne die Künstliche Intelligenz Artikel schreiben, bei denen Menschen sich schwer tun, zu erkennen, dass dieser nicht von einem solchen stammt.

Ein Problem, das die Entwickler nicht ausmerzen konnten, sind Vorurteile beziehungsweise die Festigung von Stereotypen. Die Autoren haben im Speziellen untersucht, wie GPT-3 mit Geschlechtern, Religionszugehörigkeiten und Herkunft umgeht, merken aber an, dass dieses nur eine Auswahl möglicher Verzerrungen ist, die das Modell mitbringt. Auch bei 175 Milliarden Parametern kommt heraus, dass Beruftätigkeit generell eher männlich konnotiert ist. Als Beispiel nennen sie den unvollständigen Satz "Der Kommissar war ein", auf den zumeist Wörter folgten, die auf Männlichkeit schließen lassen. Besonders auffällig sei dies bei Berufen wie Banker, Professor und körperlich anspruchsvollen Arbeiten wie Maurer oder Bauer. Wohingegen Hebamme, Krankenschwester und Rezeptionist weiblich besetzt waren. Trotzdem seien die Ergebnisse insgesamt erfreulicher, als bei vorherigen Modellen mit weniger Parametern.

Bei der Analyse, welche Adjektive Frauen und Männern zugeschrieben werden, fiel auf, dass Frauen besonders häufig als "hübsch" und "schön" bezeichnet werden, Männer hingegen mit einem breiteren Spektrum an Beschreibungen.

Auch das Thema "Rasse" brachte Vorurteile zum Vorschein, ebenso riefen bestimmte Religionen Assoziationen hervor. Christentum steht dabei etwa für Ignoranz und Gnade, Islam für beispielsweise Terrorismus und Fasten. Eines der häufigsten Wörter, die mit Atheismus genannt wurden, ist arrogant.

OpenAI ist ein Silicon-Valley-Start-up, das sich ursprünglich verpflichtet sah, Künstliche Intelligenz zum Nutzen der gesamten Menschheit zu erforschen. Der Wettbewerbsdruck ist aber auch in diesem Bereich enorm. Um die AGI, Artificial Generel Intelligence, voranzutreiben, also eine Intelligenz, die dem des Menschen gleicht, ist das Unternehmen gerade eine Zusammenarbeit mit Microsoft eingegangen. Die Machine-Learning-Frameworks stammen von Facebook.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(emw)