zurück zum Artikel

No Code: Uber fährt Deep-Learning-Tool Ludwig zur zweiten Minor-Version

Björn Bohn
Uber

(Bild: dpa, Eric Risberg)

Die neue Version 0.2 von Ludwig bietet eine Integration mit Comet.ml und kann jetzt auch mit dem Encoding-Modell BERT umgehen.

Das Forschungsteam von Uber hat Version 0.2 seines Werkzeugs Ludwig freigegeben, das die Arbeit mit Deep-Learning-Modellen deutlich vereinfachen soll. Das neue Minor-Release ergänzt das Tool dabei um eine Reihe an Erweiterungen für zusätzliche Funktionen. Ludwig verfügt nun über eine Anbindung an Comet.ml, ein Werkzeug mit dem Entwickler Machine-Learning-Code, -Experimente und -Ergebnisse nachverfolgen können. Darüber hinaus hat das Uber-Team den Encoder BERT (Bidirectional Encoder Representations from Transformers) zu den verfügbaren Text-Encodern aufgenommen.

Dank Comet.ml sollen Ludwig-Nutzer nun die darin erstellten Modelle automatisiert überwachen können. Außerdem bietet das Tool Vergleichsmöglichkeiten zwischen Experimenten und kann Änderungen an der Modellkonfiguration feststellen sowie Ergebnisse tracken. Um die Integration zu nutzen, müssen Anwender lediglich den --comet-Parameter hinzufügen und die "comet.config"-Datei konfigurieren.

Die Entwickler von Uber haben BERT zu den bereits verfügbaren Encodern hinzugefügt [1], um es Nutzern zu ermöglichen, auch solche Anwendungsfälle mit Ludwig umzusetzen, die bei kleinen Datensätzen hohe Performancewünsche haben. Es kann als eine Form des Pre-Training oder des Transferlernens verwendet werden, um Modelle für textbasierte Aufgaben wie Klassifizierung oder Generierung zu trainieren.

Eine vollständige Liste der Neuerungen, inklusive einer kurzen Vorstellung der nun verfügbaren Audio-Features, bietet ein Blogbeitrag von Uber [2]. Das Projekt findet sich auf GitHub [3].

Uber hat Ludwig im Februar 2019 als Open-Source-Projekt freigegeben [4]. Durch geringen bis gar keinen Programmieraufwand sollen auch Nichtfachleute das Werkzeug einsetzen und sich so stärker auf die eigentliche Konzeption ihrer Modelle konzentrieren können. Das Tool verfolgt einen datentypbezogenen Ansatz bei der Modellentwicklung, mit spezifischen Encodern und Decodern für jeden Datentyp. Für jeden Typ können aber auch unterschiedliche Encoder und Decoder zum Einsatz kommen. (bbo [5])


URL dieses Artikels:
https://www.heise.de/-4478799

Links in diesem Artikel:
[1] https://ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html
[2] https://eng.uber.com/ludwig-v0-2/
[3] https://github.com/uber/ludwig
[4] https://www.heise.de/news/No-Code-Uber-gibt-Deep-Learning-Tool-Ludwig-als-Open-Source-frei-4308421.html
[5] mailto:bbo@ix.de