Tiktoks KI-Avatare sprechen Hitlers Worte: Technischer Fehler

Tiktoks KI-Avatare konnten ohne Leitplanken genutzt werden. Das ist nicht der einzige Fail, den KI jüngst hingelegt hat.

In Pocket speichern vorlesen Druckansicht 39 Kommentare lesen
Buchstaben aus Holzklötzen zeigen die Worte F(AI)L.

Buchstaben aus Holzklötzen zeigen die Worte F(AI)L.

(Bild: Shutterstock/FrankHH)

Lesezeit: 4 Min.

Zitate von Hitler oder Videos, in denen gefährliche Tipps gegeben werden, wie etwa, Bleiche zu trinken. Solche und weitere unerwünschte Aufsager stammen von Tiktoks KI-Avataren. Offenbar hat die Social-Media-Plattform eine Version geteilt, die ohne Leitplanken daherkam. Es soll sich um eine interne Version der KI-Avatare gehandelt haben, die inzwischen nicht mehr verfügbar ist. Dennoch: Die damit erstellten Videos bleiben bestehen.

Konkret geht es um die Funktion "Symphony Digital Avatars" von Tiktok, die erst in der vergangenen Woche veröffentlicht wurde. Sie ist eigentlich für Unternehmen bestimmt, die sie für Werbung nutzen sollen. Wahlweise kann man einen bezahlten Schauspieler beziehungsweise dessen Avatar etwas sagen lassen. Oder man erstellt selbst einen KI-Avatar, der Markenbotschaften transportiert. Dieser kann das auch gleich in zehn verschiedenen Sprachen tun. Allerdings sollte es freilich Grenzen geben, die Avatare sollen nicht alles sagen können.

KI-Update abonnieren

Werktägliches Update zu den wichtigsten KI-Entwicklungen, freitags immer mit Deep Dive.​

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Dass aus Versehen eine Version veröffentlicht wurde, die aber doch alles sagt, hat zunächst CNN berichtet. Nutzerinnen und Nutzer hatten Videos gepostet – mit äußerst fragwürdigen Inhalten. Um die zu erstellen, sollte es eines Tiktok-Kontos mit Zugang zu den Werbeformaten bedürfen. Auch das ging offenbar schief, Menschen mit einem privaten Account hatten Zugriff. Kurz nach dem Auftauchen der ersten Videos mit fragwürdigen Inhalten hat Tiktok die falsche Version gegen eine Funktion mit regulären Leitplanken ausgetauscht.

CNN fiel zudem auf, dass die Videos nicht mit einem Wasserzeichen markiert waren. Auch das sollte eigentlich bei allen KI-generierten Inhalten auf Tiktok automatisch geschehen. Videos mit unerwünschten oder sogar strafbaren Inhalten, beispielsweise in denen Auszüge aus Hitlers "Mein Kampf" vorgelesen werden, löscht Tiktok – sie sprechen gegen die Nutzungsbedingungen. Auch Nutzer, die mit dem KI-Tool solche Inhalte produziert haben, verstoßen gegen die Richtlinien. Eine Tiktok-Sprecherin sagte The Verge, es habe sich um einen "technischen Fehler" gehandelt. Und nur eine sehr kleine Anzahl an Menschen habe die Funktion, die für interne Tests gedacht war, nutzen können.

Nicht nur Tiktok muss mit KI-Fails umgehen. Während hier offenbar die Leitplanken fehlten, tauchen immer wieder auch Probleme auf, die durch bestehende Leitlinien der KI-Modelle entstehen. Googles Gemini hat beispielsweise reguläre deutsche Soldaten des Zweiten Weltkriegs mit afroamerikanischer und asiatischer Herkunft dargestellt. Auch Adobes Firefly erstellte ähnliche Bilder.

Als Fails kursieren oft Bilder von KI-Antworten der verschiedenen Modelle, die an einfachen Aufgaben scheitern. Kürzlich erschien eine Studie, in der geschaut wurde, wie verschiedene Große Sprachmodelle (LLMs) eine Aufgabe lösen, die von den meisten Grundschulkindern gelöst werden kann. In den vergangenen Tagen posteten Menschen in sozialen Netzwerken Antworten verschiedener Sprachmodelle auf vereinfachte Versionen einer Frage zum logischen Denken. Ursprung ist ein Flussüberquerungsrätsel, bei dem ein Bauer mit Kohl, Schaf und Wolf auf die andere Seite des Ufers will, aber nicht genug Platz für alle im Boot hat. Vereinfachte Versionen der Frage, die Menschen gestellt haben, lauteten etwa so: Ein Bauer hat zwei Hühner und will diese auf die andere Seite des Flusses bringen. Sein Boot hat Platz für ihn und zwei Tiere. Wie schafft er es beide Hühner rüberzubringen? Sprachmodelle scheitern in der Regel an der Aufgabe.

Anbieter von LLMs sind von deren Reasoning-Qualitäten überzeugt. Die Sprachmodelle schneiden in den entsprechenden Benchmarks, also Test, wie gut Sprachmodelle logische Zusammenhänge verstehen, größtenteils gut ab. Diese und ähnliche Probleme aus der Praxis sprechen eher dafür, dass es doch "stochastische Papageien" sind, wie einige führende KI-Forscher einst sagten. Demnach geben LLMs nur Wahrscheinlichkeiten wieder, verstehen diese aber nicht.

ChatGPT soll derzeit außerdem daran scheitern, die schottische Nationalhymne wiederzugeben. Darin geht es um einen Sieg über englische Truppen. Warum der KI-Chatbot den Text zensiert, sagt er nicht konkret.

(emw)