Machine Learning: Lightning Flash verspricht einen blitzschnellen Trainingsstart

Mit einer Sammlung von Tasks soll Flash das Erstellen und Anpassen von Deep-Learning-Modellen für PyTorch Lightning vereinfachen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

(Bild: Hit1912 / Shutterstock.com)

Lesezeit: 2 Min.
Von
  • Rainald Menge-Sonnentag

Das Team hinter PyTorch Lightning hat eine Ergänzung für das Framework veröffentlicht, die das Training für Deep-Learning-Modelle einfacher gestalten soll. Lightning Flash ist eine Sammlung vorgefertigter Aufgaben, die auf spezielle Machine-Learning-Szenarien (ML) wie Bildklassifizierung oder Übersetzung zugeschnitten sind.

Flash spielt mit PyTorch Lightning zusammen, das im Oktober 2020 in Version 1.0 erschienen ist und auf dem von Facebook initiierten ML-Framework PyTorch aufbaut. PyTorch Lightning ist mit dem Versprechen angetreten, komplexe wissenschaftliche Modelltrainings einfacher und skalierbarer zu gestalten. Es trennt konsequent den wissenschaftlichen Part von dem Code zur Anpassung an die Recheninfrastruktur. Der PyTorch-Code ist in LightningModule-Objekten gespeichert, und ein Trainer kümmert sich um das eigentliche Training. Laut der Community-Seite setzen über 1200 Open-Source-Projekte auf PyTorch Lightning auf.

Flash soll den ersten Schritt zum Erstellen von Deep-Learning-Modellen vereinfachen. Das Team hat in der Ankündigung den aus ihrer Sicht typischen Zyklus dargestellt, der beim Start eines Projekts erforderlich ist. Er startet mit dem Lesen oder Anschauen von Informationen zu Modellen, führt zum Suchen passender Implementierungen auf GitHub und leitet schließlich zur Anpassung auf passende Daten. Beim Scheitern startet der Kreislauf von vorn.

Den aus Sicht des PyTorch-Lightning-Teams mühsamen Kreislauf soll Flash durchbrechen.

(Bild: PyTorch)

Flash soll stattdessen eine einfache Grundlage für typische ML-Szenarien bieten, dabei aber anders als rein auf Einfachheit ausgelegte Frameworks ausreichend Flexibilität zum Anpassen und Finetunen des Trainings ermöglichen.

Die Grundlage sind sogenannte Tasks, die auf strikt fokussierte Aufgabenfelder zugeschnittene Vorlagen für das Training sind. Zum Start existieren Tasks für die Klassifikation von Bildern, Texten und strukturierten Daten. Außerdem stellt Flash Module für das Image Embedding sowie das Zusammenfassen und Übersetzen von Texten bereit. Im Lauf der Zeit sollen weitere Tasks folgen.

Sonderheft zu Machine Learning

Das iX-Developer-Sonderheft "Machine Learning" behandelt auf 148 Seiten unter anderem ML-Frameworks, Textanalyse, Reinforcement Learning und die Produktivstellung von Modellen. Im Fokus steht die praktische Anwendung, und zu den meisten Artikeln existieren Jupyter-Notebooks als Basis für eigene ML-Projekte.

Neben den Grundlagen zu den ML-Methoden finden sich sowohl Artikel zu PyTorch als auch zu TensorFlow im Heft. Daneben bietet es zahlreiche Praxisartikel zu Bildanalyse, Natural Language Processing und Zeitreihenvorhersagen.

Flash Tasks enthalten alle für das Modelltraining erforderlichen Informationen wie die Zahl der vorherzusagenden Labels und die Anzahl der Spalten im Datensatz. Daneben verwalten sie die zu verwendenden DataScience- und ML-Methoden wie Verlustfunktionen und Optimierer. Die Architektur lässt sich über den backbone anpassen.

(Bild: PyTorch)

Weitere Details sowie ein Beispiel für die Bildklassifikation lassen sich der Ankündigung von Lightning Flash entnehmen. Der Sourcecode und eine Installationsanweisung finden sich im GitHub-Repository.

(rme)