Wie Mobil-CPUs dem Notebook Beine machten

Anfangs wurden mobile Prozessoren speziell für Notebooks entwickelt, später sollte sich deren Architektur als essenziell für alle CPUs erweisen.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Prozessorlücke, Meltdown, Spectre, Hardare, Motherboard, Intel, Prozessor, CPU
Stand:
Lesezeit: 8 Min.
Von
  • Nico Ernst
  • Florian Müssig
Inhaltsverzeichnis

Anfang der 1980er-Jahre waren die Stückzahlen von Computern noch so gering, dass es sich zunächst nicht lohnte, per Transistor-Transistor-Logik (TTL) realisierbare Funktionen in höher integrierten Chips zusammenzufassen. Und deshalb waren die ersten Portables wie auch der erste IBM-PC für den Desktop vollgestopft mit generischen TTL-Schaltkreisen. Das brauchte nicht nur viel Platz, sondern auch viel Energie.

Die Heimcomputer dieser Zeit, unter anderem von Sinclair und Commodore, zeigten jedoch, dass sich das Design von spezifischen (Custom-)Bausteinen (Application Specific Integrated Circuit, ASIC) durchaus lohnen kann. Zudem führte Intel 1983 die CMOS-Bauweise für seine Prozessoren ein. Dieser "Complementary Metal Oxide Semiconductor" brachte eine höhere Integration auf Herstellungsebene mit sich, indem sich beide Kanäle eines Feldeffekttransistors in einer Schicht des Bausteins vereinen lassen.

Für mobile Computer viel wichtiger war aber, dass sich dadurch sowohl die Verlustleistung als auch die Schaltspannung um mindestens eine Größenordnung reduzierten. Auch skaliert die Leistungsaufnahme seitdem mit der Taktfrequenz. Ein Gerät konnte also durch Änderungen am CPU-Takt sparsamer oder schneller gemacht werden – ideal für Mobilrechner.

Bereits vom Vorgänger der PC-CPU, dem 8085, gab es eine CMOS-Version namens 80C85; die des 8086 hieß dementsprechend 80C86. Da Intel damals noch großzügig Lizenzen vergab, bauten den sparsamen Chip etliche andere Unternehmen nach – unter anderem NEC: Die Japaner entwickelten 1988 das 2-Kilo-Notebook UltraLite rund um ihren V30-Chip, der 8086-kompatibel war.

Als die Rechner laufen lernten

Bis zur Generation des 80386 reichte die Energieskalierung durch Minderung der Taktfrequenz zum Stromsparen aus, auch wenn es spezielle CMOS-Bauweisen unter anderem von AMD gab. Der nächste größere Durchbruch für den Mobilprozessor war 1990 Intels 80386SL, bei dem der System Management Mode (SMM) als Erweiterung der Architektur eingeführt wurde. Erstmals konnte sich nahezu der gesamte Prozessor schlafen legen, alle Zustände wurden in einem eigenen Bereich (SMRAM) des Hauptspeichers festgehalten. Register und andere Daten innerhalb der CPU blieben wiederum auch ohne anliegenden Takt erhalten, weil der Chip aus statischen Transistoren (SRAM) aufgebaut wurde.

CMOS und SMD-Bauweise machten Okis Lizenzprodukt 80C86 mobil.

(Bild: Wikimedia Commons (Public Domain))

Im Unterschied zu heutigen Verfahren bekam das Betriebssystem vom Einschalten des SMM nichts mit: Ihn steuerten ausschließlich die Firmware und der damals externe Interrupt-Controller. Das führte zu mancherlei Problemen, etwa einem zähen Aufwachen eines Notebooks, das ein paar Minuten in Ruhe gelassen wurde. Solche Kinderkrankheiten wurden durch Änderungen an der Software schnell behoben, und bis in die Pentium-Generationen war SMM die wichtigste Stromspartechnik – jedenfalls für den Prozessor an sich: Intel und Microsoft hatten mit dem Advanced Power Management (APM) bereits 1992 einen Standard für den Rest eines PCs geschaffen. Daraus wurde später das noch heute genutzte Advanced Configuration and Power Interface (ACPI).

Beim 486SL (hier samt Chipsatz abgebildet) gab es erstmals mehrere Spannungsinseln für verschiedene Chipbereiche.

(Bild: Intel)

Mit dem 486SL wurden dann die Versorgungsspannungen aufgeteilt. CPU, Bus und RAM hatten in dieser Reihenfolge 3,3, 5 und 3,3 oder 5 Volt. Allein das, so Intel damals, sollte mit 3,3-Volt-RAM eine Stunde mehr Laufzeit bringen. Seitdem sind unterschiedliche Spannungen für verschiedene Chip-Bereiche auch in der Desktop-Welt üblich. Mit den ersten Pentiums, die durch MicroOps und Pipeline eine radikal neue x86-Architektur brachten, war Stromsparen dann nicht mehr so einfach. Einige Jahre kamen die mobilen Chips ohne L2-Cache auf den Markt und waren dadurch trotz lärmender Lüfter langsamer als Desktop-Prozessoren mit gleichem Takt. Folglich wurden verschiedene Versionen des 486SL noch lange nach dem Pentium-Debüt angeboten, etwa von AMD, Cyrix, IBM und anderen.

Das Verhältnis kehrte sich erst 1997 um: Power-PCs wurden schneller als der eigens für Notebooks entwickelte Pentium-MMX-Ableger mit Codenamen "Tillamook". Immerhin: Der Pentium ließ sich mit wenig Aufwand kühlen; je nach Takt verheizte er 2 bis 5 Watt. Mit Pentium II und III wurde das Spiel wiederholt, doch diese Prozessoren drosselten wegen höherer Abwärme erstmals je nach Kühlsystem. Sie wurden zudem in verschiedenen Bauformen angeboten, teils quasi nackt zum direkten Verlöten des Siliziums auf dem Board. Dieses "Tape Carrier Package" ermöglichte die ersten besonders dünnen Notebooks – jedenfalls für damalige Verhältnisse.

Ein Mobile Module für den Pentium MMX: Um Bauhöhe zu sparen, werden die Kontakte über eine flache Folie auf das Modul geführt.

Mit dem Hitzkopf Pentium 4 war dann endgültig Schluss, weil es nicht noch weiter in Richtung dickere und schwerere Notebooks gehen sollte: Die energiehungrige Netburst-Architektur drückte auch in der stromsparenderen Mobilvariante Pentium 4m auf die Laufzeiten und brauchte dicke Kühler. Während im Desktop-Bereich die Hatz gen 5-GHz-Marke – die der Pentium 4 offiziell nie erreichte – zunächst weiterging, zauberte Intel 2003 speziell für Notebooks den Pentium M aus dem Hut. Der hatte trotz seines Namens mit älteren Pentium-Architekturen aber kaum noch etwas zu tun. Zum Erfolg des Pentium M trugen freilich auch immer bessere Akkus sowie WLAN-Adapter und die Verbreitung drahtloser Netzwerke bei: "Kabel ab!" lautete Intels Werbe-Schlachtruf der Centrino-Kampagne, spiegelte aber durchaus auch den Wunsch der Nutzer wider.

Beim Pentium M handelte es sich um ein wieder aus der Schublade geholtes Design aus Intels israelischer Entwicklungsabteilung, das zuvor unter dem Codenamen "Timna" entworfen und im Jahr 2000 zunächst eingestampft worden war. Wiederbelebt wurde die Idee durch den CPU-Kern "Banias" – die Basis des ersten Pentium M. Zum Stromsparen wichtig: Bis hinab zu einzelnen Teilen des L2-Cache ließen sich über getrennte Spannungsinseln nahezu alle Elemente gezielt und dynamisch abschalten, wenn sie nicht gebraucht wurden. Zudem gab es erstmals variable Taktfrequenzen für den Core selbst, was als SpeedStep vermarktet wurde.

Apropos Core: 2006 wurde die gleichnamige Marke eingeführt. Bis heute gehen alle Core-Prozessoren auf die Grundlagen des Pentium M zurück und haben auch Desktops und Server beim Nichtstun sparsamer gemacht. Für Notebooks hieß das im Laufe der Zeit wiederum, dass auch dort Prozessoren mit mehreren Kernen möglich wurden: erst Dual-Cores, dann lange Quad-Cores, und inzwischen gibt bis zu acht Kerne – auch für flache und leichte Geräte.

Bereits der Ausblick darauf war so überzeugend, dass Apple anno 2006 begann, seine Produkte von IBMs PowerPC-CPUs auf Intels x86-Prozessoren umzustellen. Die Power-PCs kamen ähnlich dem Pentium 4 in puncto Takt und Effizienz kaum noch voran, während Intels Pentium-M-Roadmap auch für stärkere CPUs viel versprach (und gehalten hat). Dazu trug nicht zuletzt eine Aufspaltung bei: Es gab dieselbe Architektur in selektierten Chips, die allein für Mobilgeräte je nach Einsatzzweck als M (leistungsstark, 35 Watt), L (Low Power, 25 Watt) oder U (Ultra Low Power, 15 Watt) verkauft wurden. Die Fragmentierung in solche Leistungsklassen gibt es bis heute. 2010 wanderte der vormals separate Chipsatz auf das Prozessor-Package, was kleinere Mainboards möglich machte. Heute ist das SoC-Package (System-on-Chip) überall Standard.

SpeedStep, also die dynamische Taktanpassung im Betrieb, wurde beim Pentium III über einen Zusatzchip auf der Rückseite des Mobile Module gesteuert.

Dass Apple seit Ende 2020 seine hauseigenen M1-Chips mit ARM-Architektur bevorzugt – also wieder einem anderen Befehlssatz –, hängt wie beim Wechsel von IBM zu Intel mit der Nachlässigkeit des Zulieferers in den Jahren davor zusammen. Die Lake-Kerne heutiger Intel-Chips kamen in der Urversion schon 2015 auf den Markt, die anhaltenden Fertigungsprobleme bei 10 Nanometer verschlimmerten die Lage.

AMD konnte wiederum seit dem 486SL bei Notebooks lange nicht mehr ganz vorne mitspielen und hat erst 2019 mit den mobilen Ryzen 3000 aufgeholt. Da war der Wechsel Apple-intern schon beschlossen, wenngleich die restliche Notebookwelt sich freute. Seit dem Ryzen 4000U hat AMD Intels Mobilprozessoren glatt überholt – und für flache Geräte gilt das auch weiterhin.

In naher Zukunft könnte sich das Bild erneut verschieben: Intels kommender Prozessorentwurf "Alder Lake" vereint zur weiteren Effizienzsteigerung dicke Cores mit leistungsschwächeren Kernen, die als separates Design bis auf den Netbook-Chip Atom zurückgehen – mit heutzutage viel höherer Performance. Solche Kombinationen sind bei ARM-Prozessoren seit zig Jahren üblich, kommen aber jetzt erst in den x86-Massenmarkt.

Und angesichts immer höherer Notebookstückzahlen könnten auch weitere spezialisierte Eigenentwürfe à la Apple M1 kommen. Gerüchten zufolge arbeitet Google an eigenen ARM-Prozessoren für seine Chromebooks.

Dieser Beitrag stammt aus c’t Retro 2021

Die c’t Retro 2021 liefert Lesestoff für lange Winterabende. Wir zeichnen den Weg der Notebooks vom schweren Ungetüm zum superschlanken Allrounder auf und beleuchten die Anfänge des Internet. Nostalgiker erfahren, wie sie alte Hardware wieder flott kriegen, und Fans alter Spiele, wie sich Klassiker auf aktuelle PCs transferieren lassen. Für die sagenumwobene Enigma haben wir eine Programmieranleitung in Python erstellt. Die c't-Retro-Ausgabe finden Sie ab dem 18. Oktober im Heise-Shop und am gut sortierten Zeitschriftenkiosk.

(mue)