Überblick: Aktuelle KI-Coding-Assistenten für die Softwareentwicklung einsetzen

Große Sprachmodelle versprechen Effizienzgewinne bei der Softwareentwicklung. Trotz Fortschritt ist beim Einsatz allerdings noch einiges zu beachten.

Artikel verschenken
vorlesen Druckansicht 4 Kommentare lesen
,
Lesezeit: 14 Min.
Von
  • Dr. Christian Winkler
Inhaltsverzeichnis

Große Sprachmodelle (Large Language Models, LLMs) sind mittlerweile so leistungsfähig, dass sie aus komplexen Anforderungen direkt Code erzeugen können. Im Prinzip können Entwickler damit also einzelne Tickets direkt in Programmcode umwandeln lassen. Anstatt sich für Routineaufgaben Code aus vergangenen Projekten auszuleihen oder auf Blaupausen aus dem Internet zuzugreifen, setzen Entwickler vermehrt auf KI. Auch bei neuen Projekten oder beim Lernen einer neuen Programmiersprache helfen Sprachmodelle, die die Programmiersprache beherrschen, da sie im Modelltraining große Mengen Code gelesen haben.

In einem agilen Entwicklungsprozess können LLMs helfen, einzelne Stories umzusetzen, und zumindest Teile der Programmierarbeit übernehmen. Solche Effizienzgewinne wollen Entwickler und Unternehmen ungern liegen lassen – doch die Wahl der richtigen Modelle kann schwerfallen, denn ständig erscheinen neue Coding-LLMs und auch die Flaggschiffmodelle der großen Anbieter wie OpenAI, Google und Anthropic schneiden beim Generieren von Code hervorragend ab. Besonders die großen Modelle können allerdings hohe Kosten verursachen.

Mehr zu Softwareentwicklung
iX-tract
  • Aktuelle Coding-Modelle steigern die Effizienz bei Routine- und Lernaufgaben deutlich, sind aber für Vibe Coding ohne gründliche Kontrolle des generierten Codes in Produktivsystemen noch ungeeignet.
  • Benchmarks wie LMArena, SWE-bench und LiveBench helfen bei der Modellauswahl, müssen aber wegen unterschiedlicher Versionen, Fehlern und möglicher Trainingsoptimierungen kritisch gelesen werden.
  • Unternehmen müssen beim Einsatz zwischen leistungsstarken, aber datenschutzkritischen Cloud-Modellen und lokal betreibbaren Open-Weight-Modellen abwägen, inklusive Hardware- und Nutzungskosten.
  • Offene Modelle lassen sich auf die eigene Codebasis feintunen, um einen an unternehmensspezifische Richtlinien angepassten Coding-Assistenten zu schaffen.

Dieser Artikel wirft einen Blick auf unterschiedliche Einsatzmöglichkeiten von Coding-Modellen und die Bedeutung aktueller Benchmarks als Entscheidungshilfe für das passende Modell. Er diskutiert das Deployment in der Cloud oder lokal und beleuchtet, wann sich ein Feintunen lohnt.

Das war die Leseprobe unseres heise-Plus-Artikels "Überblick: Aktuelle KI-Coding-Assistenten für die Softwareentwicklung einsetzen". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.