Deep-Learning-Anwendungen mit Nvidias Jetson Nano

Einplatinencomputer wie die Jetsons von Nvidia eignen sich gut für eigene Experimente mit Deep Learning, besonders bei Bild- und Objekterkennung sowie Robotik.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Deep-Learning-Anwendungen mit NVIDIAs Jetson Nano
Lesezeit: 14 Min.
Von
  • Ramon Wartala
Inhaltsverzeichnis

Das Paradebeispiel für die Bilderkennung in Echtzeit ist autonomes Fahren. Aktuelle Bilderkennungsalgorithmen, die auf rechenintensiven Deep-Learning-Verfahren basieren, benötigen viel Rechenleistung, um Wegmarken, andere Verkehrsteilnehmer und Hindernisse in Echtzeit erkennen zu können. Eine der größten Herausforderungen bei der Entwicklung elektrisch betriebener autonomer Fahrsysteme ist jedoch die Akkukapazität. Die Leistung eines modernen Akkus wird nicht nur für die Fortbewegung mithilfe des Elektromotors benötigt, sondern auch für die gesamte Bordelektronik inklusive Klima, Navigation und Entertainment. Bei autonom operierenden Fahrzeugen kommt dazu noch die Leistungsaufnahme für die Sensorik und die Verarbeitung des von den Sensoren gelieferten Datenstroms.

Moderne Grafikkarten, wie sie in Serversystemen als Rechenbeschleuniger zum Einsatz kommen, benötigen für diesen Zweck viel zu viel Strom. So nimmt eine High-End-Grafikkarte wie Nvidias Titan RTX rund 280 Watt an einem 650-Watt-Netzteil auf, um die über 4600 CUDA-Kerne anzutreiben. Im Vergleich dazu nimmt sich der "Full Self-driving Computer" (FSD), den Elon Musk 2019 auf den Autonomy Days von Tesla präsentierte, in seiner Leistungsaufnahme von 72 Watt moderat aus. Die zwei sogenannten Neural Network Arrays ermöglichen jeweils rund 72 Billionen (72 × 1012) Multiplikationen oder Additionen pro Sekunde.

Mehr zu KI in Unternehmen

Diese geballte Rechenpower wird zur Bilderkennung in Echtzeit benötigt. Dabei muss das System jede Millisekunde gleich mehrere Bilder, die aus unterschiedlichen Kameras des Fahrzeugs kommen, verarbeiten.