Künstliche Intelligenz: Google bietet Container für Machine Learning an

Die Container haben eine Jupyter-Umgebung an Bord und bieten einen Nvidia-Stack zur Hardwarebeschleunigung.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Künstliche Intelligenz: Google bietet Container für Machine Learning an
Lesezeit: 2 Min.
Von
  • Rainald Menge-Sonnentag

Google hat unter dem Namen Deep Learning Containers ein neues Angebot im Portfolio, das den Einsatz von Machine-Learning-Projekten (ML) in der Google Cloud vereinfachen soll. Das Angebot, das sich aktuell noch in der Betaphase befindet, ist durchaus als Konkurrenz zu den AWS Deep Learning Containers zu verstehen, die Amazon im Frühjahr eingeführt hatte.

Googles Deep-Learning-Container bieten vorinstallierte und -konfigurierte Umgebungen, die speziell auf ML-Anwendungen ausgerichtet sind. Entwickler können damit lokal ihre Anwendungen erstellen, um sie anschließend in der (Google) Cloud laufen zu lassen. Dafür bietet der Internetriese unter anderem die Google Kubernetes Engine (GKE) und die AI Platform Notebooks an.

Bei Letzteren handelt es sich um verwaltete JupyterLab-Instanzen, und die Deep Learning Container enthalten eine vorkonfigurierte Jupyter-Umgebung. Dazu bieten sie Python 3, Conda und einen Nvidia-Stack mit CUDA, cuDNN und NCCL. Hinzu kommen ein Data-Science-Framework, R und zusätzliche Tools. Als ML-Framework bietet Google derzeit TensorFlow 1.13 und 2.0 sowie Pytorch an. TensorFlow 2 hat Anfang Juni die Betaphase gestartet und sollte in Kürze als fertiges Release erscheinen. Mittelfristig sollen weitere Tools folgen.

Die Namen spiegeln die konkrete Ausstattung der Container wider und folgen dabei dem Muster <framework>-<cpu/gpu>.<framework version>. Ein TensorFlow-1.3-Container mit GPU-Beschleunigung lässt sich mit folgendem Befehl starten, der den Jupyter-Server auf Port 8080 des lokalen Rechners einrichtet:

docker run -d -p 8080:8080 -v /path/to/local/dir:/home 
gcr.io/deeplearning-platform-release/tf-gpu.1-13

Durch passende Einträge im Dockerfile lassen sich eigene Pakete in den Container integrieren. Die Entwicklung sollte dabei vollständig im /home-Verzeichnis stattfinden

Weitere Details zu den Deep-Learning-Containern lassen sich dem Google-Cloud-Blog entnehmen. Google hat eine Seite mit einigen Anleitungen inklusive einer Übersicht, einer Schnellstartanleitung und einer Dokumentation zum Training innerhalb der Container zusammengestellt. (rme)