KI-Chatbot ohne Verschwörungen: Metas BlenderBot 3 soll nur Wahres lernen
BlenderBot 3 soll Gespräche über alle Themen des Alltags beherrschen – und dabei nicht in Verschwörungstheorien abdriften. Das klappt bislang nicht so recht.
Meta hat mit BlenderBot 3 die dritte Iteration seiner KI-basierten Chatbots veröffentlicht. Antworten auf Nachrichten sucht das System eigenständig im Internet und soll so Gespräche über "nahezu jedes Thema" möglich machen. Sprachlich dazulernen soll er per KI-Modell – und dabei weniger anfällig für böswillige Manipulation sein als seine Vorgänger. Eine Demo, bislang allerdings nur für US-User, steht bereit.
Weil das KI-Training ausschließlich durch Forschende eine eingeschränkte Sicht der Welt mit sich bringe, wolle man nicht auf die Vorteile verzichten, die das Modell-Training "in der Wildnis" – sprich mit realen Nutzerinnen und Nutzern – bringe. Dass das aber nicht ganz einfach ist und die trainierten Modelle dabei schnell kippen können, zeigten frühere Chatbot-Versuche, etwa bei Microsofts Tay.
Aus Fehlern lernt man...
Aus den Fehlern und Problemen früherer KI-Bots der Konkurrenz, die, nachdem sie auf die Öffentlichkeit losgelassen wurden, teilweise vor allem mit antisemitischen und rechtsextremen Parolen für Aufsehen sorgten, will Meta gelernt haben. So nutzt BlenderBot 3 zwei unterschiedliche KI-Techniken. Mit dem Meta-eigenen modularen Open-Source-Sprachmodell SeeKeR sucht der Chatbot eigenständig nach aktuellen Informationen im Internet und soll so auf dem neuesten Stand bleiben.
Der neue Lern-Algorithmus Director soll wiederum das Antwortverhalten von BlenderBot 3 steuern. Das macht Director zum einen über ein Sprach-Modelling, zum anderen eine prüfende Classification. Das Sprachmodell gibt die vermeintlich beste Fortführung des Gesprächs aus und basiert auf den Trainingsdaten. Die Classification basiert auf humanem Feedback von Chat-Teilnehmenden und soll prüfen, was moralisch richtig ist. Nur wenn beide Teilmodule übereinstimmen gibt BlenderBot eine Antwort aus.
Die Daten aus der parallel gestarteten Demo nutzt Meta bereits zum Modelltraining. Humane Chatteilnehmende können dabei die Antworten ihres KI-Gegenübers bewerten und so den Classification-Teil des Bots mitbeeinflussen, um ihn vor der weiteren Ausgabe toxischer Inhalte zu stoppen. Da auch in dieser Feedback-Schleife böswillige Manipulation möglich sei, habe man einen weiteren Algorithmus entwickelt, der derartige Troll-Feedbacks aufspüren können soll.
... oder doch nicht?
In der Praxis scheint das bislang aber noch nicht so recht zu klappen. Ähnlich wie die Vorgänger driftet die KI im Hintergrund derzeit wohl schon wieder in eine verschwörungstheoretische Richtung, wie unter anderem die Chatverläufe des Wall-Street-Journalisten Jeff Horwitz bei Twitter zeigen:
Meta gelobt indes, die für den BlenderBot 3 eingesetzten Modelle und Modell-Karten öffentlich zu halten und so die KI-Community zu fördern. Zuletzt machten die Diskussionen um Googles-Chatbot LaMDA-Schlagzeilen, als der inzwischen entlassene Ex-Google-Mitarbeiter Blake Lemoine der zugrundeliegenden KI ein eigenes Bewusstsein attestierte.
(jvo)