Bit-Rauschen: Apples ARM-Umstieg und Programmier-Helfer

Apple will angeblich 2021 bei MacBooks auf ARM umsteigen und Intel hinter sich lassen. Chip-Hersteller stecken viel Aufwand in Software.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Bit-Rauschen: Apples ARM-Umstieg und Programmier-Helfer
Lesezeit: 4 Min.

Wenige Tage nach Erscheinen dieser c’t-Ausgabe beginnt Apples Entwicklerkonferenz WWDC, im Corona-Jahr 2020, als Online-Event. Die Veranstaltung könnte Intels Aktienkurs knicken, erwarten doch Auguren dort die Ankündigung erster MacBooks mit ARM-Prozessoren aus Apples eigener Entwicklung. Demnach arbeitet Apple im „Projekt Kalamata“ schon seit Jahren am zweiten Umstieg bei der CPU-Architektur nach dem Wechsel von PowerPC auf Intels x86 im Jahr 2005. Erste ARM-Macs sollen 2021 mit 5-Nanometer-Prozessoren kommen, macOS muss dann auch auf ARM-Chips laufen. Viele Fragen sind offen, etwa die nach Treibern für den Grafikprozessor oder für eine parallele Windows-Installation.

Falls die Apple-Gerüchte stimmen, droht Intel weiterer Image-Verlust. Er dürfte schwerer wiegen als der Umsatzrückgang: MacBooks, Mac minis, iMacs und Mac Pros machen zusammen rund 8 Prozent aller weltweit verkauften PCs aus. PC-Prozessoren wiederum steuern mittlerweile weniger als 50 Prozent zu Intels Umsatz bei. Grob geschätzt haben Apples Einkäufe also unter 4 Prozent Anteil an Intels gesamten Verkäufen. Doch das Beispiel könnte Schule machen, immerhin arbeitet ja auch Microsoft beharrlich an der ARM-Version von Windows 10 und auch Linux hat kein Problem mit ARM-SoCs.

Reverse-Engineering-Spezialisten wie die kanadische Firma TechInsights werden kommende Apple-Prozessoren sofort aufschleifen, um deren Innenleben zu erforschen. Letzteres ist auch im Heimlabor möglich, jedenfalls mit genügend handwerklichem Geschick: Das beweist ein Berliner, der unter dem Pseudonym „Fritzchens Fritz“ hausgemachte Die-Shots bei Flickr in Auflösungen von bis zu 200 Megapixeln hochlädt. Wie er dabei vorgeht, erklärt er in einem YouTube-­Video.

Bei Flickr veröffentlicht „Fritzchens Fritz“ detail­reiche Mikrografien von ­Siliziumchips. Bei diesem Die-Shot eines einzelnen Xeon-SP-Kerns (Skylake) hat ­Travis Downs die grün umrandeten AVX-512-Einheiten genauer untersucht.

(Bild: Fritzchens Fritz (CC0 1.0))

Der frappierende Detailreichtum der bis über 100 MByte großen Bilddateien erlaubt Rückschlüsse auf die Mikroarchitektur. Der bei Salesforce für Software-Optimierung zuständige Experte Travis Downs nahm kürzlich etwa einen Die-Shot des Skylake-SP unter die Lupe, um die Struktur der AVX-512-Einheiten zu enträtseln.

Hochschulen und Halbleiterprofis untersuchen Chips mit sehr viel komplizierteren Geräten, etwa mittels Ptychografie. Das ist eine Spielart der Röntgenmi­kroskopie, bei der man ein Objekt mit einem feinen Strahl durchleuchtet und die entstehenden Beugungsmuster mit einem Bildsensor aufnimmt. Aus vielen solcher Bilder rekonstruiert dann ein Computer 3D-Strukturen wie bei einer Tomografie.

Manchmal sind es aber nicht die Hardware-Innereien, die Entwickler zur Entscheidung für oder gegen einen bestimmten Prozessor bewegen. Wichtiger können leicht zugängliche Entwicklungswerkzeuge sein, um gute Software für den Chip zu programmieren. Wie im letzten Bit-Rauschen erwähnt, hat sich Nvidia mit CUDA eine offenbar überzeugende Basis für Supercomputer und KI-Algorithmen geschaffen. Bei anderen KI-Chips müssen die Entwickler sich erst einarbeiten – da kann es billiger sein, den teureren Chip zu kaufen, als vorhandene Programmierer schulen zu lassen oder Fachkräfte mit Vorkenntnissen auf dem Arbeitsmarkt zu suchen. Wie kürzlich die EETimes erläuterte, gilt das auch für Mikrocontroller für Echtzeit-Steuergeräte: Hier ist eine gute Software-Anbindung an Matlab wichtig. Die mächtige Mathematik-Plattform kann aus Simulationen Code-Rohlinge für bestimmte Chips erzeugen, die sich später leicht zu einer Firmware weiterverarbeiten lassen.

Auch die bisher eher spröden und teuren Entwicklungsumgebungen für FPGA-Chips halten viele Interessenten vom Einstieg in die programmierbare Logik ab. Xilinx baut deshalb die leichter zugängliche Plattform Vitis aus, damit auch weniger erfahrene Programmierer effizienten FPGA-­Code produzieren können. Cloud-­Dienst­leister wie Amazon AWS, Google und Mi­crosoft Azure wiederum versuchen, Kunden mit Musterlösungen für gängige Anwendungsfälle ihrer jeweiligen KI-Beschleuniger oder IoT-Infrastrukturen anzulocken. Diese Blaupausen sollen die Einarbeitungszeit verkürzen und können auch bei der Sicherheit helfen. Für letzteres wiederum bauen die Cloud-„Hyperscaler“ auch jeweils eigene kryptografische Zertifikatsketten auf, um Daten auf dem Weg von den IoT-Sensoren am Cloud-Edge bis ins Rechenzentrum zu schützen. Hier schließt sich der Kreis mit Apples T2-Chip, der Apple-Geräte als eingelöteter Vertrauensanker mit Apple-Servern und Apple-­Software verschweißt, genau wie Googles Titan.


Dieser Artikel stammt aus c't 14/2020. (ciw)