c't 19/2024
S. 34
Aktuell
Künstliche Intelligenz

Vererbte Dummheit

Studien warnen vor degenerativem Kollaps von KI-Generatoren

KI-Modelle sind die neuen Könige der Welt – das wollen zumindest OpenAI und Konsorten glauben machen. Aber genau wie so manche monarchische Dynastie könnten sie an Inzest zugrunde gehen, wenn sie aus den KI-generierten Daten ihrer Vorgänger erwachsen.

Von Hartmut Gieselmann

KI-Bilder ersetzen immer mehr echte Fotos und KI-generierte Texte halten Einzug in immer mehr Schreibstuben. Alle drei bis sechs Monate kommen neue sogenannte Grundlagenmodelle auf den Markt, die mit Terabytes an Text-, Bild- und Tonmaterial aus dem Internet trainiert werden. Da KI-generierte Inhalte billiger herzustellen sind als menschengemachte, werden sie das Web bald dominieren – und damit auch das meiste Trainingsmaterial für die nächste Modellgeneration liefern.

Dies könnte in einigen Jahren zum Zusammenbruch der KI-Modelle führen. Verschiedene Studien haben untersucht, was passiert, wenn mehrere Generationen von Sprachmodellen und Bildgeneratoren mit den Inhalten ihrer Vorgänger trainiert werden. Dabei kam es nach etwa fünf bis zehn Iterationen zum Kollaps der Text- und Bildgeneratoren. Die Modelle waren nicht mehr in der Lage, verständliche Sätze zu formulieren oder realistische Szenen abzubilden.

Stille Post

Der Forscher Ilia Shumailov und seine Kollegen von der Oxford-Universität erklären in ihrer Ende Juli in der Fachzeitschrift Nature veröffentlichten Studie, wie die Degeneration funktioniert. Darin trainierten sie ein öffentlich zugängliches Sprachmodell (OPT-125m) von Meta mit Texten aus Wikipedia. Jede neue Generation des Modells wurde wiederum mit den Ausgaben der vorherigen Generation trainiert. Diese sollten die Informationen aus den Wikipedia-Texten erneut erklären.

Um zu überprüfen, wie sich die Textqualität von Generation zu Generation verschlechtert, haben die Forscher die Perplexität der Texte untersucht. Sie ist ein Maß dafür, wie viele ungewöhnliche Ausdrücke ein Text enthält und wie gut ein Modell die Formulierungen vorhersagen kann. Von Menschen geschriebene Texte enthalten mehr seltene Wörter als maschinell erzeugte Texte. Sie weisen daher statistisch gesehen eine höhere Perplexität auf.

Da ein trainiertes Sprachmodell deutlich kleiner ist als die Menge der Texte, mit denen es trainiert wurde, gehen zwangsläufig Detailinformationen verloren – ähnlich wie bei der Datenkompression eines Bildes oder Musikstücks. In der ersten Generation reduziert ein Sprachmodell die Komplexität seiner Sätze, wenn es eine trainierte Information erklären soll. Denn der dem Modell zugrundeliegende Transformator wählt stets Wörter mit hoher Wahrscheinlichkeit aus, sodass der von einer KI neu gebildete Satz aus mehr häufig vorkommenden Wörtern besteht statt aus seltenen Begriffen des Originals.

Aus der ursprünglichen Aussage „Am Wannsee in Berlin ist es heute sonnig und warm“ wird dann in der ersten Generation beispielsweise die Verkürzung „Das Wetter in Berlin ist sonnig und warm“. In den folgenden Generationen schleichen sich durch Variationen und Halluzinationen immer mehr Fehler ein, sodass der Satz nach ein paar Iterationen über mehrere Generationen am Ende vielleicht lautet: „Berlin leuchtet heiß im Sommermonat.“

Die von den Modellen neu eingestreuten Wörter und Synonyme sorgen zwar zunächst dafür, dass ein Text lebendig und gut lesbar bleibt. Sie können aber nicht alle Detailinformationen reproduzieren, die im ursprünglichen Text von Menschen formuliert wurden, weil wichtige Zusammenhänge bereits beim ersten Training verloren gegangen sind. Schließlich kommt es zum Kollaps, weil die generierten Sätze nur noch Unsinn enthalten.

Klone mit Klötzchen statt Habsburger Lippe: Wenn Bildgeneratoren über Generationen mit KI-Bildern trainieren, gehen Variationen verloren und sie fangen sich mehr und mehr Artefakte ein. , Bild: Alemohammad et al., Rice University, Stanford University
Klone mit Klötzchen statt Habsburger Lippe: Wenn Bildgeneratoren über Generationen mit KI-Bildern trainieren, gehen Variationen verloren und sie fangen sich mehr und mehr Artefakte ein.
Bild: Alemohammad et al., Rice University, Stanford University

Nur noch lächelnde Gesichter

Ähnlich wie Sprachmodelle degenerieren auch Bildgeneratoren, wenn sie über Generationen hinweg mit KI-Bildern gefüttert werden. Forscher der Rice University und der Stanford University fanden heraus, dass sich in Porträtfotos, die von DALL-E, Midjourney und Stable Diffusion stammen, zunehmend einheitliche Gesichter ausbildeten und Kompressionsmuster verstärkten. Am Ende zeigten sie nur noch weit verbreitete Stereotype. Wenn Menschen auf Fotos vorwiegend lächeln und Bergfotos immer Sonnenschein zeigen, verlernen die Bildgeneratoren nach einigen Generationen, weinende Kinder oder verregnete Gebirgslandschaften darzustellen.

Zurzeit suchen Forscher noch nach Gegenmitteln. Experimentiert wird etwa mit beigemischten frischen Daten, die garantiert von Menschen kommen, sowie mit menschlichen Kontrolleuren, die unsinnige KI-Bilder und -Texte vor einem erneuten Training ausfiltern. All diese Verfahren dürften die weitgehend automatisierte Datenaufbereitung jedoch erheblich verteuern. Im Labor konnte die Degeneration dadurch immerhin teilweise verlangsamt oder gestoppt werden. Die Erforschung dieses Phänomens und potenzieller Lösungen steht indes noch ganz am Anfang. (hag@ct.de)

Studien zur KI-Degeneration: ct.de/y3ns

Kommentieren