Parallelisierte Rechenpower fĂĽrs maschinelle Lernen
Massiv paralleles Rechnen ist die Paradedisziplin von GPUs. Nicht nur aus diesem Grund kommt Machine Learning nicht ohne sie aus.

- Daniel Menzel
HPC und Machine Learning begegnen der Komplexität der Aufgaben mit derselben Strategie: Parallelisierung oder besser: massiver Parallelisierung. Wo sich etwa mathematische Probleme aus den Ingenieurs- und Naturwissenschaften nicht als Formel geschlossen berechnen lassen, hilft nur eine numerische Annäherung, bei der man die Aufgabe in viele kleine, handhabbare mathematische Teilaufgaben unterteilt.
Grundsätzlich möchte man meinen, dass es genau dafür CPUs gebe: Sie sind als ein Stück Hardware so konzipiert, dass sie möglichst viele verschiedene Formen von Programmabläufen abarbeiten können, und das möglichst effizient. Doch ist Software selten so effizient wie die entsprechende optimierte Hardware. Deshalb gibt es in CPUs spezielle Register für AES-Verschlüsselung oder auf Netzwerkkarten das TCP-Offloading – eben, weil diese immer wiederkehrenden Funktionen jeden Tag tausend- und millionenfach aufgerufen werden und es sich lohnt, sie in Hardware auszulagern.
Einen ähnlichen Weg gehen Entwickler und Forscher im HPC mit Beschleunigerkarten und FPGAs: Wiederkehrende Funktionen, die zum Abarbeiten der jeweiligen Aufgaben regelmäßig gebraucht werden und damit potenziell zeitkritisch sind, lagern sie auf spezielle Hardware aus – sofern das eben möglich ist. Dabei bedienen sie sich gerne auch fachfremden Techniken – das Rad muss ja nicht immer neu erfunden werden.
Das war die Leseprobe unseres heise-Plus-Artikels "Parallelisierte Rechenpower fürs maschinelle Lernen". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.