iX 10/2023
S. 152
Praxis
MLOps

Modelltraining für Fortgeschrittene in Kubeflow

Um mit großen Modellen wie ChatGPT, Bard oder LLaMA umzugehen, bedarf es beim Einsatz mit Kubeflow-Pipelines einiger Kniffe. Wie das geht und wie Transferlernen, Feintuning und Retraining klappt, zeigt der dritte Teil des iX-Tutorials.

Von Dr. Sebastian Lehrig

Für das Arbeiten mit großen Sprachmodellen wie ChatGPT, Bard oder LLaMA mit mehreren Milliarden an Parametern muss man den eigenen MLOps-Ansatz um fortgeschrittene Techniken erweitern. Zum Optimieren von Trainingszeiten und Modellgüte nutzen Data Scientists etwa Transferlernen und Feintuning von vorgefertigten Basismodellen, setzen zusätzliche oder spezialisierte Hardware ein, mieten Ressourcen aus der Cloud an und verteilen das Training über mehrere Rechenknoten. Ein Monitoring per TensorBoard gibt Entwicklern hierbei kontinuierlich Rückmeldung zu Trainingsstatus und Modellgüte. Nach dieser Groboptimierung wiederholt man gegebenenfalls das Modelltraining auf aktuelleren Trainingsdaten und verfeinert die Trainingsparameter per AutoML und Hyperparameter-Tuning. Wie sich alle diese Techniken in Kubeflow integrieren lassen, zeigt dieser letzte Teil des Tutorials.

Alle heise-Magazine mit heise+ lesen

3,99 € / Woche

Ein Abo, alle Magazine: c't, iX, Mac & i, Make & c't Fotografie

  • Alle heise-Magazine im Browser und als PDF
  • Alle exklusiven heise+ Artikel frei zugänglich
  • heise online mit weniger Werbung lesen
  • Vorteilspreis für Magazin-Abonnenten
Jetzt unbegrenzt weiterlesen Vierwöchentliche Abrechnung.

Alle Ausgaben freischalten

2,60 € 1,49 € / Woche

Nach Testphase 2,60 € wtl.

  • Zugriff auf alle iX-Magazine
  • PDF-Ausgaben zum Herunterladen
  • Zugriff in der iX-App für unterwegs
  • Über 35% günstiger im Testzeitraum
Jetzt testen Nach Testphase jederzeit monatlich kündbar.

Ausgabe einmalig freischalten

9,90 € / Ausgabe

Diese Ausgabe lesen – ohne Abobindung

  • Sicher einkaufen im heise shop
  • Magazin direkt im Browser lesen
  • Dauerhaft als PDF behalten

Kommentieren