Feilen an "The Machine"

HPE stellt seinen zweiten Prototyp von "The Machine" vor. Mit 160 TByte Hauptspeicher und 1280 Kernen deutlich größer als die erste Variante. iX sprach mit Andrew Wheeler aus der Entwicklungsabteilung des Unternehmens.

In Pocket speichern vorlesen Druckansicht
Feilen an "The Machine"
Lesezeit: 9 Min.
Von
  • Berthold Wesseler

Im Jahr 2014 hat HPE mit "The Machine" eine Computerarchitektur auf der Basis von "Unified Memory" vorgestellt. Die Idee ist es, den Hauptspeicher statt des Prozessors in den Mittelpunkt des Computers zu rücken: Memory-Driven Computing. Statt der klassischen Speicherhierarchie von Cache, Hauptspeicher und externen Laufwerken soll nur noch ein einzelner Pool nichtflüchtiger, schneller Halbleiterbausteine zum Einsatz kommen. Am Anfang plante HPE dafür Memristoren ein – mit Umschaltzeiten im Picosekundenbereich.

Zunächst war nur wenig von The Machine zu hören. Als dann im vergangenen Oktober ein erster Prototyp mit 4 TByte einheitlichem Speicher und optischer Verbindung zwischen mehreren Racks vorgestellt wurde, war vom Memristor keine Rede mehr. Vielerorts unkte man bereits über das Ende des ehrgeizigen Entwicklungsprojektes. Doch hat HPE jetzt den zweiten, wesentlich leistungsstärkeren Prototypen vorgestellt. Über Ziele und Hintergründe sprach iX mit Andrew Wheeler, Vice President und Deputy Director der Hewlett Packard Labs.

iX (Berthold Wesseler): Herr Wheeler, worin sehen Sie die wichtigste Botschaft der zweiten Generation eines Prototypen von The Machine?

Andrew Wheeler, Vice President und Deputy Director der Hewlett Packard Labs: "Das Feintuning von The Machine kann beginnen."

Andrew Wheeler: Der Prototyp ist größer und leistungsstärker als sein Vorgänger vom Oktober – mit 160 TByte Hauptspeicher und 1280 Prozessorkernen.

Seine Größe eröffnet uns neue Möglichkeiten bei Test und Simulation unserer Entwicklungsarbeit. Darauf testen wir zum Beispiel, wie die vielen Compute-Nodes am besten auf den gemeinsamen Speicher-Pool – also den "Fabric Attached Memory" -- zugreifen.

Die Ergebnisse der Simulationen und Tests fließen wiederum in die Hardware- und Software-Entwicklung ein. Jetzt müssen wir dafür keine umständlichen Emulationen auf Superdome- oder SGI-Maschinen mit sehr großem Hauptspeicher mehr fahren, sondern können die Architektur direkt testen. Das spart enorm viel Zeit. Wir beginnen jetzt, reale Applikationen und Workloads unserer Kunden auf The Machine zu bringen. Hier stehen wir aber noch ganz am Anfang.

Das Schöne an diesem Prototypen ist es, dass er eine Reihe von FGPAs enthält, auf denen wir unsere Erkenntnisse direkt einprogrammieren können, um an der Architektur zu feilen. Das Feintuning von The Machine kann also beginnen.

iX (B.W.): Wer kann mit diesem Prototypen arbeiten? Nur die Entwickler von HPE oder auch Partner und Kunden?

A.W.: Sowohl als auch. Intern gibt es zwei Arten der Nutzung des Prototypen. Einerseits Feintuning von Architektur und Algorithmen oder auch hinsichtlich Performance und Sicherheit. Andererseits hilft uns der Prototyp beim Ausarbeiten des Designs für das spätere Produkt und bei der Entwicklung von Bauteilen, die wir später in The Machine einbauen wollen.

Last, but not least werden wir mit dem Prototypen auch schneller die Entwicklungswerkzeuge für die Anwendungen schaffen, die den nicht-flüchtigen Arbeitsspeicher intelligent nutzen.

Für die externe Nutzung des Prototypen haben wir gerade einen Filterprozess gestartet, um die interessantesten Projekte auszuwählen. Wie sie sich vorstellen können, gibt es ein riesiges Interesse bei Kunden, aber auch bei Wissenschaftlern und Softwarehäusern, die sich alle Rechenzeit auf The Machine wünschen.

Die Frage ist: Wem erfüllen wir diesen Wunsch? Welche Art von Support bieten wir dabei? Denn wir können nur eine begrenzte Zahl von Maschinenzyklen, Bandbreite und Manpower bieten. Derzeit sind wir noch in der Findungsphase und überlegen, wie viele solche Vorhaben wir unterstützen können – und mit wem wir hier strategisch zusammenarbeiten wollen.

iX (B.W.): Wie viele Prototypen betreibt HPE?

Ingenieure der Hewlett Packard Labs arbeiten in Fort Collins (Colorado) am Prototypen des ersten Memory-Driven-Computers. Die grundlegend neue Rechnerarchitektur verspricht auch Fortschritte jenseits des Supercomputers -- vom Smartphones bis zum "Edge Device".

A.W.: Derzeit gibt es den einen großen Prototypen. Wir haben die Möglichkeit, auch kleinere Varianten davon zu bauen. Derzeit sind wir noch bei der Kapazitätsplanung: Sollten diese Systeme 20 oder 40 Terabyte Hauptspeicher haben? Wie viele Cores wären sinnvoll?

Wir wollen jedenfalls auch etliche kleinere Prototypen für unterschiedliche Zwecke nutzen, beispielsweise für die Software-Entwicklung oder zur Erprobung neuer Bauteile. Auch für die initialen Software- und Performance-Tests gewinnen wir so zusätzliche Kapazitäten, denn wir würden erst mit zunehmendem Reifegrad der Testobjekte den großen Prototypen brauchen.

iX (B.W.): Welche Komponenten sind in diesem Prototypen verbaut? Wo kaufen Sie Standardbauteile am Markt ein – und wo nutzen Sie Spezialentwicklung von HPE oder von Partnern?

A.W.: Auf Hardware-Ebene kombinieren wir Standardbauteile mit Eigenentwicklungen, teilweise sogar mit eigenem VLSI-Design. Das von uns optimierte Linux läuft auf einem maßgeschneiderten "System on a Chip" (SOC). Das ist ein neues 32-Core-ARM-Design von Cavium – aber ein Standardbauteil.

Zur Steuerung der internen Kommunikation nutzen wir keinen weiteren Prozessor, sondern als Brückenkomponente einen eigenen FPGA. Dieser erlaubt den Prozessoren auch den Zugriff auf die Memory-Fabric. Das ist ein geswitchter Speicher-Pool, wobei die Speicherknoten über unsere Photonik-Technik vernetzt werden.

Das photonische Interconnect-Modul X1 auf dem Teststand "Kraken" im Silicon Design Lab am Standort Fort Collins. Microscalierte Lasertechnologie ersetzt die traditionelle Kupfererdrahtung für den Datentransfer durch schnelle optische Verbindungen.

Das Photonische Netzwerk verbessern wir laufend mit Blick auf Bitrate und Bandbreite; in diesem Prototypen läuft es erstmals bei maximaler Kanalkapazität mit höchster Bitrate.

Im Kern ist der Prototyp also eine Kombination aus Standard-Prozessoren und selbst entwickelten FPGAs, ASICs und Modulen für die optische Vernetzung. Alles andere auf Hardware-Ebene sind Standardbauteile, auch der nichtflüchtige Hauptspeicher.

Natürlich wird diese Hardware größtenteils über Firmware gesteuert, die wir selbst entwickelt haben. Das Betriebssystem basiert zwar auf Linux, wurde aber für uns um eine ganze Reihe von Funktionen zum Beispiel für die Parallelverarbeitung oder die Verwaltung des Benutzeradressraums erweitert, die wir unter Open-Source-Lizenz veröffentlicht haben.

iX (B.W.): The Machine braucht ein ganz neues Linux, denn klassische Aufgaben des Betriebssystems wie Paging oder Swapping sind nicht mehr nötig, dafür werden andere um so kniffliger – etwa die Garbage Collection.

A.W.: Wenn ich alle Daten so behandle, als ob sie immer im Hauptspeicher sind, brauche ich kein klassisches Dateisystem mehr, aber dafür etwas vergleichbares. So etwas wie ein Dateisystem für den Hauptspeicher, über das die Anwendungen auf die Daten zugreifen können. Dabei wollen wir das übliche "Datenschaufeln" vermeiden, das in der klassischen Speicherhierarchie gang und gäbe ist.

iX (B.W.): Ist es denn nicht mehr das Ziel, dass The Machine mit einem "Unified Memory" arbeitet, der voll und ganz im Hauptspeicher liegt?

A.W.: Langfristig schon, mittelfristig sprechen aber noch die Kosten dagegen. Also werden wir hybride Systeme verwenden. Deshalb hat unser Prototyp aus Kostengründen flüchtigen DRAM als schnellen Hilfsspeicher für die Prozessoren – quasi als Scratch-Memory für die heißesten Daten im Cache. Auch externe Platten- oder Flash-Speicher werden aus wirtschaftlichen Gründen in diesen Systemen weiter genutzt werden.

iX (B.W.): Verfolgen Sie weiterhin den Plan, irgendwann The Machine auch mit Memristoren auszurüsten?

A.W.: Absolut. Wir werden aber nicht nur Memristoren einbauen, sondern je nach Einsatzzweck auch andere Speichertechniken. Das macht die Systemarchitektur möglich. Wenn uns eine Technik Vorteile bringt, werden wir sie nutzen.

Wir wollen den Memristor einbauen, sobald er in entsprechenden Stückzahlen zu vertretbaren Preisen lieferbar ist. Dessen Entwicklung treiben wir gemeinsam mit Western Digital weiter voran. Aber auch andere nichtvolatile RAM-Speicher werden wir nutzen, wenn es entsprechende Schnittstellen gibt.

Wir wollen eine offene Architektur schaffen, zu der Hersteller Komponenten beisteuern. Das können Prozessoren sein oder Beschleuniger, aber natürlich auch Speicherbausteine.

iX (B.W.): Wie sieht Ihr Zeitplan aus? Wann werden wir das erste Produkt sehen, das den Namen "The Machine" verdient?

A.W.: Wir arbeiten heute noch parallel an allen Fronten: persistentem Speicher, Photonics, Security-Features oder Linux-Erweiterungen. All diese Neuerungen bauen wir in andere HPE-Produkte ein.

Der Prototyp hilft uns jetzt dabei, die Zeit bis zur Marktreife von The Machine zu verkürzen. Damit können wir Architektur und Produktdesign besser analysieren und schneller und einfacher verfeinern. Und wir können die Workloads oder Marktsegmente identifizieren, mit denen wir starten wollen.

Aus heutiger Sicht werden das die Bereiche High-Performance-Computing und Analytics sein. Hier werden wir schon bald erste Tests mit konkreten Workloads unserer Kunden beginnen.

iX (B.W.): Eine Jahreszahl nennen Sie nicht. Gibt es keinen konkreten Zeitpunkt für die geplante Markteinführung von The Machine?

A.W.: Es gibt noch keinen konkreten Termin dafür. Wir müssen erst verstehen, wie The Machine funktioniert – und wie sich welche Anwendungen damit beschleunigen lassen. Zu diesem Zweck haben wir gerade erst eine Zusammenarbeit mit dem "Deutschen Zentrum für Neurodegenerative Erkrankungen" gestartet. Das DZNE wird die neue Computerarchitektur in der Hirnforschung nutzen, um weitere Erkenntnisse über Demenzerkrankungen zu gewinnen. Bei der Forschung fallen etwa durch MRT-Scans große Datenmengen an, die mit klassischen Rechnerarchitekturen nur schwer zu verarbeiten sind.

Wir werden das nächste Jahr nutzen, um nicht nur die Anwendungen besser zu verstehen, sondern auch die optimale Konfiguration von Speicher und Prozessoren und das gesamte Packaging der Hardware – von der Stromversorgung bis zur Kühlung. Dafür werden wir uns die nötige Zeit nehmen. Von daher ist es heute noch nicht möglich, einen konkreten Termin für die Markteinführung zu nennen. (jab)