Evolution im Machine Learning: TensorFlow 2.0 ist erschienen

Darauf haben Machine-Learning-Experten sehnsüchtig gewartet – ein neues Release des 2015 erstmals in Erscheinung getretenen TensorFlow.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
Evolution im Machine Learning: TensorFlow 2.0 ist erschienen

(Bild: Machine Learning & Artificial Intelligence / Mike MacKenzie / cc-by-2.0))

Lesezeit: 1 Min.
Von
  • Mark Keinhörster
  • Alexander Neumann

Das vermutlich derzeit populärste Machine-Learning-Framework TensorFlow ist nun in Version 2.0 erschienen. Das neue Release bringt zahlreiche Neuerungen mit. Ein Fokus liegt sicherlich auf der aufgeräumten API. Die Integration der High-Level-API der Deep-Learning-Bibliothek Keras (tf.keras) ersetzt beispielsweise Namespaces wie tf.layers, tf.losses und tf.metrics.

Da die zweite Hauptversion des Frameworks nun standardmäßig auf den in TensorFlow 1.5 eingeführten Eager-Execution-Modus setzt, verzichtet es auf Konstrukte wie die Sessions und die globalen Namespaces im Graphen oder stellt sie lediglich aus Kompatibilitätsgründen bereit. Wer dennoch auf Graphen nicht verzichten möchte, kann mit dem tf.function-Dekorator und AutoGraph das Beste aus beiden Welten kombinieren: die Einfachheit idiomatischen Python-Codes und die Performance und Portabilität eines Graphen, der sich mit TensorFlow Serving standardisiert deployen lässt.

Außerdem erhalten Anwender ein Migrationstool an die Hand, das dabei hilft, alte Implementierungen mit wenig Anpassungen auf TensorFlow 2.0 umzustellen.

Wer tiefer in die Neuerungen des neuen Release eintauchen möchte, sollte einen Blick in die Release Notes werfen oder in den aktuellen Artikel auf heise Developer.

Siehe dazu auf heise Developer:

Mehr Infos

In einem viertägigen Intensivkurs können Interessierte in praktischen Übungen erlernen, wie man Machine-Learning-Modelle mit den populären Frameworks TensorFlow und Keras entwickelt. Themen sind dabei unter anderem Convolutional Neural Networks (CNN) zur Verarbeitung von Bildern und Recurrent Neural Networks (RNN) zur Verarbeitung von Sequenzen wie Text.

Der Workshop findet vom 25. bis 28. November in Frankfurt am Main statt. Bis zum 14. Oktober gilt ein Frühbucherrabatt in Höhe von 270 Euro.

(ane)