Noch mehr KI-Beschleunigung für den Raspberry Pi 5

Neuer KI-Motor im M.2-Format. 25 Tops und eine geringe Leistungsaufnahme bringt der AICore DX-M1M von Radxa

vorlesen Druckansicht 1 Kommentar lesen
Blaues elektronisches Modul (ähnlich einer M.2-Karte) mit goldenen Steckkontakten auf der linken Seite. In der Mitte befindet sich ein großer silberner Chip mit der Aufschrift „DEEPX DX-M1M 2519 FZ8RT-B1NB“. Rundherum sind kleinere schwarze Chips, Kondensatoren und Leiterbahnen auf der Platine sichtbar.

(Bild: Radxa)

Lesezeit: 3 Min.
Von
  • Daniel Schwabe

Mit dem AICore DX-M1M hat Radxa ein neues KI-Beschleunigermodul vorgestellt. Das Kärtchen im M.2-Format misst 22 mm × 42 mm und lässt sich in Systeme über PCI Express integrieren. Notwendig ist wahlweise ein M- oder B-Key-Steckplatz. M-Key-Steckplätze sind aufgrund von M.2-SSDs verbreitet.

Im Inneren arbeitet der KI-Beschleuniger DeepX DX-M1M, der laut Hersteller eine Rechenleistung von bis zu 25 Tops im Datenformat INT8 schafft. Das entspricht 25 Billionen Operationen pro Sekunde. Als Referenz: Eine Copilot+PC-Zertifizierung verlangt 40 Tops. Damit ist das Modul klar auf Aufgaben wie Bilderkennung oder Sprachverarbeitung ausgelegt. Angebunden wird der Beschleuniger über bestenfalls zwei PCIe-3.0-Lanes.

Als Speicher steht 1 GByte LPDDR4X zur Verfügung. Das klingt zunächst knapp, ist für inferenzbasierte KI-Workloads aber typisch, denn trainiert wird ohnehin meist extern. Unterstützt werden gängige Frameworks wie TensorFlow, ONNX, Keras und PyTorch, wobei Modelle über einen eigenen DX-COM-Compiler für die Hardware optimiert werden müssen. Das bedeutet etwas Einarbeitung, dürfte aber für viele Maker zum Alltag gehören.

Das Modul läuft unter Windows 10 und 11 sowie unter Ubuntu ab Version 20.04. Auch Docker wird unterstützt. Als Host-Systeme kommen sowohl ARM- als auch x86-Plattformen infrage. Konkret nennt Radxa unter anderem den Raspberry Pi 5 sowie verschiedene Rock-Boards wie Rock 5A, 5B oder 5 ITX. Im Falle des Raspis ist ein M.2-Adapter (M.2-HAT) für den Betrieb notwendig. Darüber läuft immerhin eine PCIe-Lane.

Für Maker ist vor allem die Kombination aus geringer Leistungsaufnahme und hoher Rechenleistung interessant. Mit typischen drei Watt bleibt der Energiebedarf überschaubar, was den Einsatz in Edge-Geräten, mobilen Projekten oder Dauerbetrieb ermöglicht. Gerade bei Anwendungen wie smarter Videoüberwachung, lokalen Sprachassistenten oder Bilderkennung direkt auf dem Gerät kann das Modul seine Stärken ausspielen, ohne dass Daten in die Cloud wandern müssen.

Videos by heise

Ein typisches Szenario wäre etwa ein Raspberry Pi 5, der per Kamera Objekte erkennt und lokal auswertet. Statt die CPU zu belasten, übernimmt das DX-M1M die KI-Arbeit. Das spart Ressourcen und sorgt für schnellere Reaktionszeiten.

Wer direkt einsteigen möchte, findet auf der offiziellen Dokumentationsseite einen Quickstart-Guide. Das Modul kostet im Herstellershop 75 Euro, ist zurzeit allerdings nicht lieferbar. Hinzu kommen in Deutschland 19 Prozent Steuer und Versand. Der finale Preis liegt bei etwas über 100 Euro.

Wer beim Programmieren KI-Unterstützung braucht, findet sie in Form von AI.duino in unserem Artikel.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(das)