Die ersten 25 Jahre in der Geschichte der Mikroprozessoren

Seite 3: x86: Geburt einer Industrie

Inhaltsverzeichnis

Intel besserte 1977 als Antwort auf den Z80 den 8080 etwas mit dem 8085 nach. Der Prozessor brauchte jetzt ebenfalls nur noch eine Betriebsspannung statt derer drei. Aber zu der Zeit war ein 16-Bit-Prozessor schon allmählich überfällig, so wie ihn die Konkurrenz bereits fertig oder in Arbeit hatte.

Intel hatte was in der Queue, sogar was Großartiges: den 8800 (später in iAPX 432 umbenannt). Bestehend aus drei Chips sollte das Ensemble dann gleich mit leistungsfähiger 32-Bit-Architektur und objektorientiertem Programmiermodell aufwarten. Doch es war absehbar, dass seine Entwicklung noch längere Zeit in Anspruch nehmen und die Chips sehr aufwendig und teuer sein würden. Vor allem aber stuften ihn die Analysen anderer Architekten im Hause als grottenlahm ein (war er dann auch). Man brauchte bei Intel also, um konkurrenzfähig zu bleiben, möglichst schnell einen preiswerten und einfach gestrickten, aber auf 16 Bit aufgebohrten 8085 – und dieser Notnagel sollte dann der 8086-Prozessor werden.

Der erbte vieles vom 8085, so etwa die Technik, Adress- und Datensignale zu multiplexen, um Pins zu sparen, und daher passte der 8086 weiterhin in ein preiswertes 40-Pin-DIL-Gehäuse. Aber 40 Pins, das war immer noch arg knapp und man musste ganz schön tricksen, denn es kamen ja zusätzliche Signale für den Coprozessorbetrieb und vor allem für einen größeren Adressraum (vier zusätzliche Bits für 1 MByte) hinzu. Für den Maximalmodus brauchte man daher noch einen zusätzlichen Buscontroller. Um 1 MByte logisch mit 16-Bit-Registern generieren zu können, führte Intel sogenannte Segmente ein, die Gesamtadresse wurde aus der Summe der um vier Bits nach links verschobenen Segmentregister und den acht normalen 16-Bit-Registern bestimmt. Bei den normalen hatte jedes zumeist sehr spezifische Aufgaben, mit dem einen konnte man dieses, mit dem anderen jenes machen.

Am 4. Juni 1978 wurde der 8086 offiziell vorgestellt, etwa ein halbes Jahr später kam er auf den Markt. Was das Intel-Management gegenüber seinen 8086-Entwicklern rund um Chef-Architekten Steven Morse lange Zeit verschwiegen hatte: Parallel zu ihrer Entwicklung wurde noch eine "kastrierte" Version namens 8088 entwickelt und zwar im weit entfernten Haifa in Israel. Im Silicon Valley hätte man das wohl kaum geheim halten können. Der wichtigste Unterschied des 8088 zum 8086 war, dass der Datenbus nach außen nur 8-bittig war, weshalb der Chip dem 8085 noch ähnlicher wurde. Damit konnte man dann die umgebende Hardware deutlich vereinfachen und verbilligen – allerdings auf Kosten der Performance. Daneben gab es noch ein paar weitere Änderungen, so wurde die sogenannte Prefetch-Queue, die ein paar Bytes schon vorab von den darauffolgenden Adressen einliest, von 6 auf 4 verkürzt. Und wie man weiß, hat IBM genau diesen 8088 und nicht den 8086 als Motor des IBM-PCs erkoren, um diesen einfach und schnell auf die Reise bringen zu können.

Andere Firmen hatten derweil auch erkannt, dass eine Verkleinerung des Datenbusses für bestimmte Marktsegmente sehr zweckmäßig sein kann. So brachte Motorola 1982 den 68008 heraus, ebenfalls mit 8-Bit-Datenbus, den man später etwa im Sinclair QL bewundern durfte.

Als IBMs PC-Erfolgsgeschichte so ab 1982/83 begann, tobte schon einige Zeit die Schlacht der preiswerten Home- und Spielecomputer – und dort bildeten sich zwei große Lager heraus, die sich zum Teil heftig bekämpften: 6502/6510 hier und Z80 da, später wurde daraus die Apple- und die PC-Fraktion, die sich rund 15 Jahre später zumindest prozessormäßig vereinte, vorübergehend, denn weitere 15 Jahre später steht wieder eine Trennung bevor: Apple hat angekündigt, bei den Macbooks und iMacs auf ARM zu wechseln. 6502 – 680x0 – PowerPC – x86 - ARM, Architekturwechsel sind für Apple offenbar kein Problem.

Die 6502-Fraktion war zunächst mit Apple II, VC-20, C64, Atari VCS2600 ("Pac-Man"), Nintendo Entertainment System (sein Prozessor Ricoh 2A08 war ein erweiterter 6502, "Super-Mario") oder BBC Acorn bestückt, die andere zog mit Sinclair ZX80/81, Sinclair Spectrum, Tandy TRS80, Video-Genie, Sharp MZ80, Amstrad/Schneider CPC oder auch mit einer Z80-Steckkarte im Apple II in die Schlacht.

Apple hatte sich zu dieser Zeit aber erst einmal aus dem Regiment verabschiedet. Der ohne Stephen Wozniak konzipierte Apple III ("der wurde vom Marketing und nicht von Ingenieuren gebaut", so Wozniak später) für über 4000 Dollar und mit nicht mehr zeitgemäßem 6502A (von Synertek, 2 MHz) wurde zwar ein paar Monate vor dem IBM PC vorgestellt, geriet aber zum Rohrkrepierer. Damit war die Bahn frei für den Erfolg des IBM PC.

Apples später komplett neu konzipierter Lisa, der Anfang 1983 mit integriertem, kleinem Monitor, mit Maus und GUI und mit 16/32-Bit-Prozessor 68000 auf den Markt kam, war zwar eine kleine Revolution, die aber ob seines Preises von rund 10.000 Dollar nur bei sehr elitären Kunden ankam. Das korrigierte Apple erst ein Jahr später mit dem MacIntosh, der mit 128 KByte fest eingelötetem Speicher ab 2500 US-Dollar angeboten wurde, natürlich ebenfalls bestückt mit dem 68000-Prozessor mit 8 MHz. Der Rechner wurde in den nächsten Jahren zwar verbessert unter anderem mit mehr Speicher, aber der Prozessor blieb bis zum MacIntosh II im Jahre 1987 (dann mit 16 MHz-68020) immer gleich.

Derweil hatten auch die edleren Home-Computer Motorolas 68000-Prozessor entdeckt. Insbesondere der Commodore Amiga – toll beworben seinerzeit von Andy Warhol – und der Atari ST sind Legende.

Auch die andere Community wurde gut bedient, wenn auch weniger von der Firma Zilog, die den 1979 vorgestellten 16-Bit-Nachfolgeprozessor vom Z80, den Z8000, nicht in die Erfolgsspur des Vorgängers bringen konnte. Das fing schon mit einem sehr schlechten Start an. Die Support-Chips und Entwicklungssysteme kamen nicht in die Pötte und die externe Memory Management Unit ließ übermäßig lange auf sich warten. Hinzu kamen diverse Bugs und außerdem war die Z80-Community recht unglücklich darüber, dass alte Z80-Software auf ihm nicht lief. So führte der Z8000 trotz recht guter Performance nur ein Schattendasein. Der alte Z80 hielt sich hingegen lange, sehr lange, quasi bis heute. Sein Takt wurde in den 80er–Jahren auf 8 MHz beschleunigt und in der CMOS-Version bis hinauf zu 20 MHz. 2007 brachte Zilog sogar noch eine abwärtskompatible Version namens eZ80 heraus (Uralt-Bastler kennen noch die gleichnamige Gleichrichterröhre). Der hat etliche neue Befehle, auch Multiplikation, verbreiterte Register und eine ALU-Breite von 24 Bit und war bei gleichem Takt dreimal so schnell wie der alte. Zudem erreichte er bis zu 50 MHz und "schluckte" fast nichts.

Doch den Job für die entsprechende Community übernahmen in den späteren 80er-Jahren dann Intel und AMD mit den 8086/88-Prozessoren und später mit dem 80286, der im August 1984 den IBM AT befeuerte. Für die breite Masse waren die PCs in den frühen 80er-Jahren noch zu teuer, aber spätestens mit den Selbstbausystemen wie dem c’t-86 oder den preiswerten Nachbauten aus Fernost oder von Amstrad/Schneider stürmten sie hierzulande in der zweiten Hälfte der 80er-Jahre die Wohn- und Kinderzimmer.

Intels 16-Bitter 80286 erweiterte nicht nur den Adressbereich um weitere 4 Bit auf 16 MByte, sondern führte auch im Hinblick auf Multiuser-Betrieb einen neuen geschützten Betriebsmodus ein, den Protected Mode. Der ist zwar heute noch vorhanden, wird aber kaum noch genutzt. Die IPC-Zahl (Instructions per Clock) des 80286 war etwa doppelt so hoch wie die vom 8086, zudem ging sein Takt hinauf auf bis zu 12 MHz. Mithin lag sein Performancezuwachs gegenüber dem 8086 mit 5 MHz so um Faktor 5. Davon träumt Intel heute, dass mal eine neue Generation fünfmal so schnell ist wie die vorherige. Hinzu kamen noch Hardware-Einheiten fürs Multiplizieren und Dividieren, die bei 16 Bit bis zu zehnmal so schnell wie die Algorithmen beim 8086 waren – und das bei gleichem Takt!

Doch der richtig große Schritt nach vorne, der Intel auch den Eintritt in den lukrativen Servermarkt bis hinauf in den Bereich der Mainframes und Supercomputer ermöglichte, gelang mit dem unter Leitung von John Crawford und dem Chefarchitekten Pat Gelsinger designten 32-Bitter 80386. Sein Launch fand am 17. Oktober 1985 statt; Compaq baute ihn schon wenige Monate darauf in den Deskpro 386 ein – IBM brauchte sieben Monate länger, wo dann die ersten 386er im Jahre 1987 das PS/2 Model 80 antrieben.

Der 386 war nicht Intels erster 32-Bitter, aber der bereits erwähnte luxuriöse iAPX32 hatte gegen ihn keine Chance und verlor klar im internen Wettbewerb. Über diesen Revierkampf ("turf war") schrieb Pat Gelsinger mal in einem Artikel für c’t zum 25. Geburtstag des PCs.

Der 80386 hatte nicht nur volle 32 Bit mit 4 GByte Adressraum, sondern er führte auch virtuelle Speicheradressierung, Paging und lineare Adressierung ohne Segmente ein, was als Schutzkonzept den recht umständlichen Protected Mode schnell verdrängte. Vor allem hatten die Schöpfer an Kompatibilität gedacht, denn mit dem virtuellen 8086-Modus konnte man den Real Mode des 8086 effizient emulieren und so auch unter 32-Bit-Betriebssystemen uralte DOS-Programme laufen lassen. Erst mit Windows 10 war das vorbei, doch hier helfen Emulatoren wie DOSBox.

Außerdem erweiterte der 386 massiv die ISA, die nun ein erheblich höheres Maß an Orthogonalität gewann. Bis auf ein paar Feinheiten (etwa Stringbefehle oder Spezialitäten etwa bei MUL und DIV), kann man nun die Register (außer dem Instruction Pointer) weitgehend gleichwertig verwenden.

Was allerdings 32-Bit angeht – da war die Konkurrenz um einiges schneller. Motorola brachte ein Jahr früher als Intel den 68020 mit voller 32-Bittigkeit, also für ALU, Daten- und Adressbus. Der hielt dann schnell Einzug im MacIntosh II und im Amiga 1200. Es gibt nicht wenige, die schwärmen noch heute davon. Der erste vollwertige Mikroprozessor mit 32 Bit ist hingegen fast vollständig vergessen, er kam schon 1980 aus den Bell Labs von AT&T und hieß BELLMAC-32A. Später gab es einen Nachfolger davon, den mit 250 mW sehr stromsparenden Hobbit, den Apple mal erwog, in den geplanten PDA "Newton" einzubauen – aber dafür fand man noch was Besseres.

Denn ziemlich überraschend kam 1987 aus Großbritannien der Archimedes-Rechner von Acorn mit einem neuartigem 32-Bit-Prozessor. Das heißt, so neu war dessen Konzept nicht, denn das zugrunde liegende RISC-Prinzip hatte IBM schon in der 70er-Jahren entwickelt und später wurde der von John Cocke konzipierte 801-Prozessor zum Vorläufer der Power-Architektur. Die Idee bei RISC (Reduced Instruction Set Computer) war, die Hardware möglichst einfach, die Befehle möglichst alle gleich lang und leicht dekodierbar und die ISA möglichst orthogonal zu gestalten. Für die Optimierung des Ablaufs sollte dann der Compiler sorgen.

Die RISC-Idee stieß in den Elite-Unis in Kalifornien auf Begeisterung. An der Uni in Berkeley setzte David Patterson sie ins Berkeley-RISC-Projekt um, aus dem später der Sun-SPARC-Prozessor erwuchs. Und etwas weiter südlich in der Stanford University legte John Hennessy die Grundlagen für den MIPS-Prozessor. Und weit weg im englischen Cambridge gab es eine geniale Sophie Wilson – sie hieß damals noch Robert Wilson–, die gemeinsam mit Steve Furber Anfang der 80er-Jahre einen großen Erfolg mit dem BBC-Microcomputer mit 6502-Prozessor verbuchen konnte. Den Prototypen mussten sie (mit zwei Helfern) in vier Tagen hinzaubern. Für den nächsten Rechner fragten sie bei Intel an, ob es eine Möglichkeit gebe, den 80286 als Softcore in Lizenz zu bekommen, was Intel aber ablehnte – Intel wollte Chips verkaufen und keine Designs – und sich heute darüber ärgern dürfte.

So fuhren Wilson und Furber in die USA, hörten sich Patterson an und beschlossen dann: Wir machen was Eigenes. Das dauerte dann ein bisschen, aber mit finanzieller Unterstützung von Olivetti bekamen sie ihn fertig: den ARM-Prozessor alias Acorn (oder später Advanced) RISC Machine. Im Archimedes 300/400 von 1987 wirbelte dann bereits der ARM 2 mit 8 MHz. Ein Jahr später, etwa gleichzeitig mit Intels 486-Prozessor, kam der ARM3 mit 25 MHz und, wie der 486 auch, mit integriertem Cache heraus.

Da war Apple bereits auf den neuen Prozessor aufmerksam geworden und überredete Acorn, das Prozessorgeschäft in eine Tochterfirma auszulagern, in die Apple mit 40 Prozent einstieg. Und wie man weiß, wurde die ARM-Architektur erfolgreich, sehr erfolgreich und beherrscht heutzutage nahezu vollständig den Smartphone- und Tablet-Markt. Außerdem treibt die mit der neuen Vektoreinheit SVE versehene ARM-Architektur neuerdings den weltschnellsten Supercomputer "Fugaku" und in Zukunft eben auch die iMacs und Macbooks an.

Das SPARC-Design von Patterson, das dann Sun (über Fertigungspartner) und später Fujitsu in Hardware gossen, baute auf einem großen Satz von internen Registern auf, von denen die CPU immer nur einen Teil "sieht". Bei jedem Unterprogramm-Aufruf wird das Registerfenster verschoben, was eine bequeme und schnelle Übergabe von Parametern und Ergebnissen einfach durch Fensterverschiebung ermöglicht. Suns erste SPARC-Prozessoren (zunächst noch ohne Cache) baute Sun-Mitgründer Andreas von Bechtolsheim ab 1987 in die SparcStation ein, die schnell einen guten Platz im Workstation-Bereich eroberte. Später in den 90ern kamen dann SuperSPARC, TurboSPARC und ab 1995 diverse 64-bittige UltraSPARC-Versionen, die bis zum Jahre 2013 weiterentwickelt wurden. Dann fiel Sun keine Steigerung von Ultra mehr ein und der stattdessen entwickelte Rock-Prozessor wurde zum Debakel.

Beim Wettlauf um 64 Bit hatte Intel-Konkurrent MIPS die Nase weit vorn. Der R4000 erschien bereits 1991 und lief mit damals atemberaubenden 100 MHz. Bekanntlich brauchte die x86-Konkurrenz für 64 Bit zwölf Jahre länger, bis 2003 der AMD Opteron herauskam. Erfolgreich war MIPS vor allem in den Unix-Workstations von Silicon Graphics, aber auch Siemens beziehungsweise dann Siemens-Nixdorf setzten für ihre Server die R4000- bis R10000-Prozessoren ein, letzterer mit 270 MHz. Das Ende der großen Serverchips von MIPS kam 2004 mit dem R16000A, der 1 GHz Takt erreichte. Aber das Design lebt weiter in den chinesischen Loongson-Chips – und in den kleinen x86-Chips von VIA Centaur.

Zweiter im 64-Bit-Rennen war ein Neuling im Mikroprozessormarkt, der einst zweitgrößte IT-Konzern der Welt, die Digital Equipment Corporation (DEC). Sie hatte zuvor nur für den eigenen Bedarf Mikroprozessoren unter dem Namen MicroVAX entwickelt und das PC-Geschäft völlig unterschätzt. Das sollte dann 1992 ein komplett neu entwickeltes 64-Bit-RISC-Design namens Alpha richten, das mit der alten 32-bittigen VAX-Architektur nichts mehr gemein hatte. Die erste Alpha-Version 21064 (EV4) war für den PC-Markt nicht wirklich geeignet. Das wurde ein paar Jahre später mit dem vom späteren AMD-Architekten Dirk Meyer designten 21164 (EV5) behoben. In Deutschland verkaufte die mit Homecomputern groß gewordene Firma Vobis PC-artige Alpha-Systeme mit 21064 und 21164 und mit Windows NT, das es von Microsoft auch für MIPS und Alpha gab. Viel Erfolg hatte DEC im PC-Bereich allerdings nicht, besser liefs auf dem Servermarkt. Aber die Alpha-Entwickler waren immer ganz weit vorne bei neuen, interessanten Architekturverbesserungen. Der 21264 (EV6) glänzte mit Out-of-Order-Architektur bei sehr hohem Takt, der 21364 (EV7) mit integriertem Speichercontroller. Und für später war mit dem EV8 vierfaches Multithreading vorgesehen. Doch bevor es so weit war, gabs plötzlich DEC nicht mehr, der einstige Riesenkonzern wurde vom PC-Hersteller Compaq geschluckt.

Unter dem Projektnamen Somerset rauften sich im Oktober 1991 Apple, IBM und Motorola zusammen, um als AIM-Allianz eine gemeinsame Prozessorplattform zu bilden. IBM steuerte eine vom Power1 abgeleitete RISC-Architektur bei und Motorola das Bus-Interface des 88110. Motorola hatte zu dem Zeitpunkt den 68040 auf dem Markt, mit L1-Caches, integrierter FPU und bis zu 40 MHz Takt. Nach zwei Jahren Arbeit kam der erste PowerPC 601 heraus (zunächst für die IBM-RISC-System/6000-Linie) und wurde vom Time Magazine zum "Product of the Year 1994" gekürt. Er protzte geradezu mit 32 32-Bit-General-Purpose- und 32 Gleitkommaregistern – viermal so viel wie der Pentium. Zudem arbeitete er dreifach superskalar und besaß mit 32 KByte einen großen L1-Cache. Er kam mit 80 MHz (im MacIntosh 8100) und ein halbes Jahr später als 601+ mit 110 MHz heraus – und konnte damit den konkurrierenden Pentium in der Performance zumeist deklassieren.

Parallel dazu erschien 1994 noch Motorolas 68060; er hatte aber noch schlechtere Marktchancen. Allein in den Amiga wurde er eingebaut, Apple hingegen schwenkte mit dem PowerMac im Frühjahr 1994 voll auf PowerPC um. Aber ohne Steve Jobs schaffte es Apple zunächst nicht, die Transition auf die PowerMacs erfolgreich über die Bühne zu kriegen, dazu war die preiswertere "Wintel"-Konkurrenz zu mächtig.