Einstieg in AutoGen: Das Multi-Agenten-Framework im Einsatz
Mehrere Sprachmodelle zu verketten, ist aktuell ein vielversprechender Ansatz: Das flexible und offene Framework AutoGen hebt sich mit dynamischen Chats ab.
- Danny Gerst
Will man verschiedene große Sprachmodelle (LLMs) als Agenten in einer Anwendung miteinander verknüpfen, lohnt der Blick auf das offene Framework AutoGen mit seinen spezialisierten Werkzeugen, die LLMs und optional auch menschliche Interaktion in einem Chatinterface zusammenbringen. Das Framework haben wir bereits vorgestellt und gezeigt – vom Lösen von Matheproblemen bis hin zum Programmieren mit mehreren KI-Helfern. Dieser Artikel zeigt, wie man praktisch in die Arbeit mit dem Framework einsteigt und die wichtigsten Funktionen nutzt.
Ein Wort der Warnung vorweg: AutoGen befindet sich noch in einer aktiven Entwicklungsphase. Funktionen und APIs werden regelmäßig angepasst und erweitert, um die Nutzbarkeit des Frameworks kontinuierlich zu verbessern. Für aktuelle Informationen und bei auftretenden Fragen empfiehlt es sich, regelmäßig die Dokumentation von AutoGen zu konsultieren. Darüber hinaus finden sich auch im GitHub-Repository von AutoGen viele praktische Beispiele und Anleitungen.
- Mit AutoGen erstellt man chatbasierte Anwendungen, in denen verschiedene LLM-Agenten im Dialog miteinander Probleme lösen und Aufgaben erfüllen.
- Entwickler wählen, welche Kommunikationsform der LLM-Chat annehmen soll. Reihenfolgen lassen sich statisch festlegen, man kann die Koordination aber auch den großen Sprachmodellen überlassen.
- Durch die Möglichkeit von Funktionsaufrufen und selbst definierten Agenten können Nutzer ihre KI-Anwendungen feingranular abstimmen.
- AutoGen erlaubt den Einsatz vieler proprietärer und offener Modelle, solange diese mit der OpenAI-API kompatibel sind.
AutoGen benötigt zurzeit Python Version 3.8 oder höher, der Konsolenbefehl pip install pyautogen
installiert das Framework auf der Maschine. Das folgende Listing zeigt ein Codebeispiel fĂĽr ein "Hello-World"-Programm.