Computex

Computex-Keynote: "Die Zukunft wird auf ARM gebaut"

ARM-CEO Rene Haas hat auf seiner Computex-Keynote dargelegt, warum er sein Unternehmen gut aufgestellt sieht.

In Pocket speichern vorlesen Druckansicht 85 Kommentare lesen

ARM-CEO Rene Haas auf der Computex 2023

Lesezeit: 4 Min.
Von
  • Florian Müssig

Die Entwicklung neuer Prozessoren wird immer teuer und komplexer, während Ressourcen wie Entwicklerkapazitäten und Energie sich immer rarer machen – rund um dieses Spannungsverhältnis drehte sich die Keynote, die ARM-CEO Rene Haas auf der Computermesse Computex in Taipeh gehalten hat. Er sah sich von den gegenläufigen Entwicklungen aber nicht ausgebremst, sondern sieht im Gegensatz ein gigantisches Potenzial: Der Bedarf an Rechenleistung wachse schließlich unaufhaltsam, und zwar sowohl von Rechenzentren über Clients bis hin zu Automotive. Für letzteres nannte er konkrete Zahlen: Das heute bereits erträumte, aber längst noch nicht realisierte, autonome Fahren gemäß Level-5-Definition erfordere eine Rechenleistung von 4000 TOPS – pro Fahrzeug, versteht sich.

Für die blockierenden Hindernisse legte er denn auch Lösungsansätze parat. So sei ARM seit Beginn seiner Existenz darauf ausgelegt, möglichst energieeffiziente Rechenkerne zu entwickeln. Das habe für den ersten Apple Newton genauso gegolten wie in jüngerer Vergangenheit, in der sich der Absatz von ARM-Prozessoren vervielfacht hat. Bis 2013 wurden laut Haas‘ Angaben 50 Milliarden ARM-Chips insgesamt verbaut, bis 2021 hat sich die Zahl durch den Boom smarter Geräte (von Handys über Tablet und Uhren bis hin zu Lautsprechern) schon auf 200 Milliarden vervierfacht. Und schon in diesem Jahr soll die 250-Milliarden-Marke überschritten werden.

Die rasant wachsenden Zahlen quer über alle Geräteklassen hinweg dürften erklären, warum ARM derzeit mit einem seiner größten Kunden, nämlich Qualcomm, vor Gericht streitet: Dem Vernehmen nach will ARM sein Geschäftsmodell ändern und künftig keine Gebühren pro Chip mehr verlangen, sondern sie am Gesamtpreis des damit bestückten Geräts bemessen. Zu dem Rechtsstreit hat Haas auf der Bühne kein Wort verloren.

Bei den Entwicklungskapazitäten will ARM seinen Kunden stärker unter die Arme greifen. Bei bisherigen SoCs haben der jeweilige Lizenznehmer die Kerne in sein Design übernehmen und sämtliche Hindernisse von Integration bis Tape-Out selbst machen müssen. Allerdings haben SoCs ausgedient, und der Wechsel von monolithischen Chips hin zu Verbünden aus mehreren Chiplets eröffnet neue Chancen: ARM will künftig nicht mehr nur die reine IP liefern, sondern fertige Subsysteme, die auf neuste Fertigungsprozesse abgestimmt sind und nur noch in ein Chiplet-Design eingefügt werden müssen. Die SoC-Entwickler können sich dann auf die anderen Bestandteile des Verbunds konzentrieren.

Explodierende Entwicklungskosten: Je feiner der Fertigungsprozess, desto teuer das SoC-Design. Das von Haas gezeigte Balkendiagramm bezieht sich auf Strukturgrößen von 7 nm, 5 nm, 3 nm und 2 nm.

Als Beispiel nannte er den kürzlich von Nvidia gestarteten und als Superchip bezeichneten Grace-Hopper-Verbund. Der CPU-Teil besteht aus zwei Neoverse-V2-Blöcken à 72 Kerne, die ARM zugeliefert hat – wodurch Nvidia sich auf das restliche Systemdesign konzentrieren konnte. Das Zuliefern der fertigen Subsysteme habe also keine Jobs gekostet, sondern vielmehr dafür gesorgt, dass sich die Nvidia-Entwickler auf hauseigene Baustellen beschränken konnten, damit das Gesamtpaket schneller fertig geworden ist. Randnotiz: Die enge Kooperation dürfte nicht zuletzt daran liegen, dass Nvidia vor einiger Zeit ARM übernehmen wollte – und dieser Zeitpunkt dürfte recht parallel zur Entwicklungszeit von Grace Hopper gelegen haben.

Apropos Entwicklungszeit: Diese lasse sich massiv verringern, wenn man ARMs Dienste in Anspruch nimmt. Ein Projekt, über das Haas noch nicht öffentlich sprechen dürfe, hab vom Kick-Off bis zum Tape-Out nur dreizehn Monate benötigt – was unabhängig von der unbekannten Komplexität des Chips durchaus beachtlich kurz ist.

Und nicht zuletzt glaubt Haas nicht daran, dass der Bedarf an mehr Performance in nächster Zeit abnimmt, sondern allen Widrigkeiten trotzt. Künstliche Intelligenz giere schlicht danach und er sieht ein selbstbefeuerndes Wechselspiel zwischen Training und Anwendung von Modellen. Größere Modelle benötigen mehr Client-Rechenleistung, um sie lokal nutzen zu können, und wenn gewisse Sachen erst einmal auf vergleichsweise schwachbrüstigen Systemen wie Smartphones laufen würden, kommt dann schnell der Ruf nach noch besseren beziehungsweise besser trainierten Modellen, die dann wieder mehr Performance in Rechenzentren fordern.

(mue)