Matlab: Deep Learning mit der Grafikkarte
Das Rechenprogramm Matlab 2017b beherrscht beim Umgang mit neuronalen Netzen die Integration von LSTM-Netzen (Long/Short-Term Memory), welche auch zeitlich verzögerte Effekte berücksichtigen. Nun sollen sich auch vortrainierte Faltungsnetzwerke wie AlexNet oder Modelle aus dem Caffe-Framework Zoo fürs Training anhand externer Daten nutzen lassen. Mit den neuen Funktionen lassen sich Zeitreihen vorhersagen sowie Texte und Bilder klassifizieren.
Anwender der Computer Vision Toolbox können jetzt mit der enthaltenen Image Labeler App interaktiv Referenzdaten fürs Training der Bild-Klassifizierung markieren. Der neu eingeführte GPU Coder soll Deep-Learning-Modelle automatisch in CUDA-Code für Nvidia-Grafikkarten konvertieren. Damit lassen sich laut Mathworks bis zu 3000 Bilder pro Sekunde verarbeiten – nach Entwickler-Angaben bis zu siebenmal mehr als mit der Bibliothek Tensorflow. Weitere Neuerungen sind die Text Analytics Toolbox sowie neue Werkzeuge zum Modellieren und Überprüfen von Testanforderungen im Paket Simulink. Matlab kostet in der Grundausstattung 2000 Euro, als abgespecktes Matlab Home für private Nutzung 119 Euro. Eine Studentenversion ist ab 35 Euro erhältlich (alle Preise netto). (hps@ct.de)