Machine Learning: Google beschleunigt Modell-Training mit Cloud TPUs

Auf der Google Cloud Platform stehen ab sofort Tensor Processing Units (TPU) für mit TensorFlow programmierte ML-Modelle zur Verfügung. Das Cloud-TPU-Angebot läuft noch in der Beta-Phase.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Google startet Schnittstelle für maschinelles Lernen
Lesezeit: 1 Min.
Von
  • Matthias Parbel

Entwicklern steht auf Googles Cloud Platform (GCP) seit geraumer Zeit mit Google Cloud ML die Möglichkeit zur Verfügung, eigene Modelle für das maschinelle Lernen erstellen und trainieren zu können – beispielsweise solche auf der Basis des ebenfalls von Google stammenden, quelloffenen TensorFlow-Frameworks. Speziell für die Berechnung solcher TensorFlow Workloads bietet Google ab sofort neue Hardware-Beschleuniger an – sogenannte Cloud TPUs (Tensor Processing Units).

Die TPU-Module umfassen jeweils vier ASICs mit einer Floating-Point-Performance von insgesamt 180 Teraflops sowie 64 GByte Speicher. Google bietet die Cloud TPU zunächst zur alleinstehenden Anwendung, im Verlauf des Jahres soll es dann noch die Option geben, mehrere TPU über ein Hochgeschwindigkeitsnetz zu sogenannten TPU Pods zu koppeln. Zugriff auf die Cloud TPU erhalten ML-Entwickler über eine Google Compute Engine VM. Zur individuellen Programmierung stehen die TensorFlow-APIs zur Verfügung, samt passender Tools und Dokumentation. Für den Schnelleinstieg stellt Google außerdem einige Open-Source-TPU-Model-Implementierungen bereit – darunter beispielsweise ResNet-50, ein Modell zur Bilderklassifizierung, sowie Transformer, für maschinelle Sprachübersetzung auf Basis neuronaler Netzwerke.

Im Rahmen der jetzt gestarteten Betaphase stehen Cloud TPUs nach Auskunft von Google zunächst nur in begrenztem Umfang zur Verfügung. Die Nutzungskosten betragen 6,50 US-Dollar pro Cloud TPU und Stunde, bei sekundengenauer Abrechnung. Wer am Einsatz der Beschleuniger interessiert ist, kann sich bei Google registrieren lassen. (map)