KI-gestütztes DevOps mit lokalen LLMs unterstützen
Das Duo aus Ollama mit dem Plug-in Continue.dev für VS Code oder JetBrains hilft beim Schreiben von Code und unterstützt Entwickler im gesamten DevOps-Prozess.
- Ramon Wartala
Generative Sprachmodelle können nicht nur Texte erzeugen, klassifizieren und zusammenfassen, sondern wollen auch die Softwareentwicklung revolutionieren. Es vergeht kaum ein Monat, in dem nicht ein neues Sprachmodell vorgestellt wird, das mit Abermilliarden von Quellcode-Token der verschiedenen Programmiersprachen und Dialekte trainiert wurde. Waren frühe Codeassistenten gut darin, bestehenden Code zu vervollständigen oder Code zu einem eingegebenen Kommentar zu erzeugen, können aktuelle LLMs beim gesamten Softwarelebenszyklus behilflich sein.
Der Vorteil dabei ist, dass Entwickler im DevOps-Prozess nicht mehr die Entwicklungsumgebung verlassen müssen, um verschiedene Code-Assets zu erstellen. Nicht nur spezielle Produkte wie GitHub Copilot oder Codium versprechen hier mit Plug-ins für gängige integrierte Entwicklungsumgebungen zu unterstützen.
- Wer Codeassistenten wie GitHub Copilot oder Codium als Software as a Service nutzt, muss seinen Quellcode in die Cloud schicken. Das stellt einige Firmen vor rechtliche Herausforderungen.
- Das Continue.dev-Plug-in für Visual Studio Code und die JetBrains-Produkte kann außer den großen Sprachmodellen aus der Cloud auch lokale oder selbst betriebene LLMs einbinden.
- Zusätzlich zur Codevervollständigung bindet Continue.dev separat konfigurierbare Chatmodelle und Embeddings ein, um den eigenen Code befragen zu können.
- Das Plug-in unterstützt Entwickler in allen Phasen des DevOps-Prozesses, etwa beim Deployment von Diensten bei Cloud-Anbietern.
Mittlerweile existiert eine Reihe IDE-Plug-ins, die ganz unterschiedliche Voraussetzungen für ihren Einsatz verlangen. Produkte wie CodeGPT etwa setzen den Zugang zu OpenAIs GPT-4 oder dem AWS-Bedrock-Dienst voraus und sind nur in der Basisversion kostenlos. Andere Plug-ins wie CodeAssist für JetBrains-Produkte kommunizieren mit Servern in der Cloud des Anbieters.
Das war die Leseprobe unseres heise-Plus-Artikels "KI-gestütztes DevOps mit lokalen LLMs unterstützen". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.