iX 9/2022
S. 100
Wissen
Machine Learning

Deep Learning: Modelle an Hardware anpassen

Um Deep-Learning-Modelle auf unterschiedlicher Zielhardware effizient einzusetzen, sind auch 2022 noch einige Klimmzüge erforderlich. Spezielle Deep-Learning-Compiler wie TensorFlow XLA und Apache TVM nutzen den LLVM-Compilerstack für die Hardwareoptimierung.

Von Ramon Wartala

Das LLVM-Projekt hat nicht nur ein allseits etabliertes Compilerframework für die Übersetzung von Hochsprachen in Maschinensprachen auf unterschiedlichen Prozessorarchitekturen hervorgebracht. Immer stärker wird es auch für das Optimieren von Machine-Learning-Modellen eingesetzt. Der spezielle Zwischencode von LLVM hilft dabei, hardwarespezifische Funktionen und Datenstrukturen von Deep-Learning-Modellen auf unterschiedlicher Zielhardware optimal ausführbar zu übersetzen (siehe Kasten „Von JVM zu LLVM“). Sowohl Open-Source- als auch kommerzielle Produkte buhlen um die Gunst der Datenwissenschaftler und Hersteller spezifischer KI-Hardware.

Alle heise-Magazine mit heise+ lesen

3,99 € / Woche

Ein Abo, alle Magazine: c't, iX, Mac & i, Make & c't Fotografie

  • Alle heise-Magazine im Browser und als PDF
  • Alle exklusiven heise+ Artikel frei zugänglich
  • heise online mit weniger Werbung lesen
  • Vorteilspreis für Magazin-Abonnenten
Jetzt unbegrenzt weiterlesen Vierwöchentliche Abrechnung.

Alle Ausgaben freischalten

2,60 € 1,49 € / Woche

Nach Testphase 2,60 € wtl.

  • Zugriff auf alle iX-Magazine
  • PDF-Ausgaben zum Herunterladen
  • Zugriff in der iX-App für unterwegs
  • Über 35% günstiger im Testzeitraum
Jetzt testen Nach Testphase jederzeit monatlich kündbar.

Ausgabe einmalig freischalten

9,90 € / Ausgabe

Diese Ausgabe lesen – ohne Abobindung

  • Sicher einkaufen im heise shop
  • Magazin direkt im Browser lesen
  • Dauerhaft als PDF behalten

Kommentieren