iX Special 2023
S. 90
Modelle anwenden
LangChain

Große Sprachmodelle mit LangChain verketten

Die vortrainierten großen Sprachmodelle lassen sich entweder mit den eigenen Daten feinabstimmen oder mit geschicktem Prompt Engineering aufrufen und geben dann genauere oder aktuellere Antworten. Wer dies mit eigenen Anwendungen tun will, kommt an Tools wie LangChain nicht vorbei.

Von Ramon Wartala

Die derzeit verfügbaren großen Sprachmodelle (Large Language Models, LLMs) haben zwei grundlegende Schwächen. Erstens neigen sie zum Halluzinieren, das heißt, sie geben manchmal überzeugend klingende, aber falsche Antworten. Einer der Gründe dafür ist, dass diese Sprachmodelle darauf trainiert werden, das nächste Wort oder, um genau zu sein, das nächste Token, sehr effektiv vorherzusagen. Bei einem Eingabetext geben LLMs Wörter mit hoher Wahrscheinlichkeit zurück, was nicht bedeutet, dass LLMs über Argumentationsfähigkeit verfügen.

Zweitens besitzen sie wenig aktuelles Wissen. Die Trainingsdaten beschränken sich auf Internetdaten vor einem bestimmten Datum. Daher wird es oft keine nützlichen Antworten geben, wenn sich Fragen auf aktuelle Trends oder Themen beziehen.

Kommentieren