No Code: Uber fährt Deep-Learning-Tool Ludwig zur zweiten Minor-Version

Die neue Version 0.2 von Ludwig bietet eine Integration mit Comet.ml und kann jetzt auch mit dem Encoding-Modell BERT umgehen.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Uber

(Bild: dpa, Eric Risberg)

Lesezeit: 2 Min.
Von
  • Björn Bohn

Das Forschungsteam von Uber hat Version 0.2 seines Werkzeugs Ludwig freigegeben, das die Arbeit mit Deep-Learning-Modellen deutlich vereinfachen soll. Das neue Minor-Release ergänzt das Tool dabei um eine Reihe an Erweiterungen für zusätzliche Funktionen. Ludwig verfügt nun über eine Anbindung an Comet.ml, ein Werkzeug mit dem Entwickler Machine-Learning-Code, -Experimente und -Ergebnisse nachverfolgen können. Darüber hinaus hat das Uber-Team den Encoder BERT (Bidirectional Encoder Representations from Transformers) zu den verfügbaren Text-Encodern aufgenommen.

Dank Comet.ml sollen Ludwig-Nutzer nun die darin erstellten Modelle automatisiert überwachen können. Außerdem bietet das Tool Vergleichsmöglichkeiten zwischen Experimenten und kann Änderungen an der Modellkonfiguration feststellen sowie Ergebnisse tracken. Um die Integration zu nutzen, müssen Anwender lediglich den --comet-Parameter hinzufügen und die "comet.config"-Datei konfigurieren.

Die Entwickler von Uber haben BERT zu den bereits verfügbaren Encodern hinzugefügt, um es Nutzern zu ermöglichen, auch solche Anwendungsfälle mit Ludwig umzusetzen, die bei kleinen Datensätzen hohe Performancewünsche haben. Es kann als eine Form des Pre-Training oder des Transferlernens verwendet werden, um Modelle für textbasierte Aufgaben wie Klassifizierung oder Generierung zu trainieren.

Eine vollständige Liste der Neuerungen, inklusive einer kurzen Vorstellung der nun verfügbaren Audio-Features, bietet ein Blogbeitrag von Uber. Das Projekt findet sich auf GitHub.

Uber hat Ludwig im Februar 2019 als Open-Source-Projekt freigegeben. Durch geringen bis gar keinen Programmieraufwand sollen auch Nichtfachleute das Werkzeug einsetzen und sich so stärker auf die eigentliche Konzeption ihrer Modelle konzentrieren können. Das Tool verfolgt einen datentypbezogenen Ansatz bei der Modellentwicklung, mit spezifischen Encodern und Decodern für jeden Datentyp. Für jeden Typ können aber auch unterschiedliche Encoder und Decoder zum Einsatz kommen. (bbo)