LLMs im Unternehmen: Online-Thementag zu RAG, Prompting und Agentensystemen
Der Thementag am 12. März zeigt, wie Unternehmen Sprachmodelle sowohl für das Daten-Retrieval als auch zum Generieren von Text effizient einsetzen.
Große Sprachmodelle können weit mehr als einfache Fragen beantworten, und Unternehmen müssen nicht auf öffentliche Angebote wie ChatGPT zurückgreifen. Schlanke LLMs laufen auch im eigenen Rechenzentrum, und mit Retrieval Augmented Generation (RAG) können Unternehmen interne Dokumente in die Abfragen einbeziehen, ohne sie nach außen zu geben.
Lernen Sie auf dem Online-Thementag der Machine-Learning-Konferenz Minds Mastering Machines am 12. März, wie LLMs arbeiten, wie sie sich mit RAG erweitern lassen und wie Agentensysteme funktionieren.
Einblick in LLMs, RAG und Agentensysteme
Das Programm der von iX und dpunkt.verlag ausgerichteten Online-Konferenz bietet Vorträge zu folgenden Themen:
- EinfĂĽhrung in Large Language Models
- Dokumentenvorverarbeitung und Embeddings
- Effizientes Retrieval in RAG-Systemen
- Prompting und Systemprompts fĂĽr AI-Engineers
- RAG-Systeme evaluieren
- EinfĂĽhrung in Agentensysteme
Abgerundet wird das Programm durch das Entwickeln einer Beispielapplikation von der Datenextraktion ĂĽber die Wahl des Embedding-Modells und der Methode zum Speichern der Vektoren bis zur Implementierung.
Tickets für den Thementag sind bis zum 19. Februar zum vergünstigten Frühbucherpreis von 249 Euro (alle Preise zzgl. 19 % MwSt.) erhältlich. Am 19. März findet zusätzlich der ganztägige Online-Workshop "Eigene Sprachmodelle feintunen und nutzen" statt, der 549 Euro kostet.
Wer über den Verlauf der Minds Mastering Machines und der zugehörigen Thementage informiert werden möchte, kann sich für den Newsletter eintragen. Der Special Day hat zudem seinen eigenen Auftritt auf LinkedIn.
(rme)