KnuPath Hermosa: KI-Chip für Machine Learning

Ein texanisches Startup-Unternehmen schaltet viele Digitale Signalprozessoren über einen schnellen Interconnect zu Rechen-Clustern zusammen, etwa für Spracherkennung und Bildanalyse.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Knupath H1000 Hermosa Deep Learning

Entwickler-Board mit zwei Knupath H1000 Hermosa

(Bild: Knupath)

Lesezeit: 2 Min.

2005 gründete der ehemalige NASA-Chef Daniel (Dan) Goldin das Unternehmen Intellisis, aus dem KnuEdge hervorgegangen ist. Es entwickelt Systeme für Künstliche Intelligenz (KI) und Machine Learning/Deep Learning. Ziel sind militärische Anwendungen, aber auch Sprach- und Bilderkennung.

Nun stellt die KnuEdge-Tochter Knupath den für solche Einsatzbereiche optimierten Prozessor Hermosa vor. Er vereint 256 Digitale Signalprozessoren (DSPs) und 16 Ports mit dem seriellen Interconnect LambdaFabric, der mit 10 GBit/s pro Port etwas schneller ist als eine PCIe-3.0-Lane (8 GBit/s). LambdaFabric soll besonderes niedrige Latenzen benötigen: 6 bis 62 Nanosekunden (ns) zwischen DSPs innerhalb eines Hermosa-Chips, 247 ns zwischen DSPs in unterschiedlichen Hermosa-Chips auf demselben Mainboard und 400 ns innerhalb eines Rechenzentrums.

Die DSPs im Hermosa-Chip sind hierarchisch angeordnet: Je acht gehören zu einem "Chip", der auch einen "Feeder", 256 KByte sMEM (wohl SRAM) und 2 MByte eMEM (DRAM) enthält. Je acht dieser Chips sind zu einem Supercluster zusammengefasst, von denen wiederum vier im Knupath H1000 alias Hermosa stecken.

Er soll 256 GFlops Gleitkomma-Rechenleistung liefern und stellt 64 MByte RAM bereit. Seine nominelle Leistungsaufnahme beträgt 34 Watt. Knupath verkauft auch ein Entwicklersystem mit zwei H1000, die an ein ARM-SoC mit 2 GByte RAM als Host angebunden sind.

Der Knupath H1000 Hermosa verknüpft 256 DSPs in einer hierarchischen Struktur per LambdaFabric.

(Bild: Knupath)

Im Vergleich zu Grafikprozessoren (GPUs) soll Hermosa als KI-Rechenbeschleuniger wesentlich effizienter arbeiten, unter anderem weil die Rechenwerke enger mit Speicher gekoppelt sind.

KnuEdge vertreibt auch die Spracherkennung KnuVerse, die selbst bei starken Störgeräuschen zuverlässig arbeiten soll und Sprecher identifizieren kann. Als "Active Voice" lässt sich KnuVerse über den Cloud-Dienst knurld in Geschäftsprozesse einbinden.

Unter den KnuEdge- und Knupath-Managern sind viele ehemalige AMD-Mitarbeiter, was beim Standort Austin nicht überrascht: Pat Patla hat die Opteron-Sparte vom Start weg neun Jahre lang geführt, Marty Seyer war Chief Strategy Officer, Raghuram Tupuri baute das indische Entwicklungszentrum von AMD auf. (ciw)