Die ersten 25 Jahre in der Geschichte der Mikroprozessoren

Seit nahezu 50 Jahren gibt es sie, die Mikroprozessoren. Gern stellt sich Intel als Erfinder dieses Meilensteins dar. Doch die Ehre gebührt nicht allein Intel.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 36 Min.
Von
  • Andreas Stiller
Inhaltsverzeichnis

Die Ehre zu Erfindung des Mikroprozessoren kommt neben Intel zumindest patentrechtlich gesehen Texas Instruments zu. Und dann gibts auch noch IBM, Motorola, HP, DEC, Sun, Mips, Cyrix, Via, AMD, ARM und wie sie alle heißen. Wie fing das alles an und was ist draus geworden?

Als Intels Entwicklungschef Federico Faggin im Juni 1971 in die "Electronics News" schaute, staunte er nicht schlecht. In einer mehrseitigen Anzeige wurde eine CPU-on-a-Chip beworben, die Texas Instruments (TI) für die Computer Terminal Corporation (CTC) entwickelt hatte. Einen offiziellen Namen für den Chip gabs da noch nicht, später hieß er TMX 1795, ein MOS-Chip mit 3078 Transistoren.

Faggin war geschockt, eigentlich war Intel als Erstlieferant für CTC vorgesehen, TI sollte lediglich eine Zweitquelle sein: Das CPU-Konzept, das sich stark an dem vorhandenen diskreten Prozessor von CTC orientierte, stammte schließlich von Intel. Doch die Zusammenarbeit mit dem Auftraggeber CTC klappte nicht wie geplant, zumal das Projekt für den 8-Bit-Chip 1201 eine Zeit lang vor sich hin dümpelte, insbesondere weil Intels Entwickler Feeney für andere, dringendere Aufgaben abgezogen wurde. Im Januar 1971 nahm sich dann aber Faggin des Projektes an. Bis dahin hatte er mit Kollegen an einem anderen Auftrag gewerkelt, an einer Familie von vier Chips rund um den 4/8-Bit-Prozessor 4004 (8-Bit-Register, 4 Bit ALU und 4-Bit-Datenbus).

Die hatte die japanische Firma Busicom geordert und dazu auch ihren besten Ingenieur Masatoshi Shima nach Santa Clara geschickt. Der hatte schon einige Zeit am Konzept der 4000-Familie gefeilt. Er kam Ende 1969 in die USA und unterbreitete es zum einen der jungen Firma Mostek, zum anderen den beiden Intel-Ingenieuren Stan Mazor und Ted Hoff. Die hatten aber von Logic-Design nur wenig Ahnung, Mazor kam aus der Software und Hoff war mehr Speicherexperte. Erst als im April 1970 Federico Faggin von Fairchild zu Intel kam und die Projektleitung übernahm, bekam das Ganze den nötigen Schwung. Es dauerte nur etwas mehr als ein halbes Jahr, dann liefen die ersten Prototypen.

Die 4000-Familie war dann im Juni ’71 zwar fertig, aber Busicom war wegen einer Rezession in Finanznot und nicht mehr so interessiert. Intel konnte sie aber überreden, erst einmal weiterzumachen und gegen eine Finanzspritze von "weniger als 60.000 Dollar" die Rechte an Intel abzutreten. So konnte die Intel Corporation dann im November 1971 "ihren" 4004-Prozessor offiziell in der "Electronics News" vorstellen.

Der andere Auftraggeber CTC hatte sich ein paar Monate zuvor weder für Intels 1201-Chips noch für die von TI erwärmen können und setzte für seine Terminals doch lieber weiterhin auf diskrete TTL-Gräber. Im Sommer 1971 stieg CTC dann ganz aus. TI guckte in die Röhre, Intel jedoch fand für den weitgehend fertig entwickelten Chip neue Abnehmer wie Seiko und benannte ihn in 8008 um. Nur wenige Monate nach der 4004-Vorstellung im April 1972 kam somit der weitaus leistungsfähigere 8008 heraus. Er hatte 50 Prozent mehr Transistoren (3500 gegenüber 2250) und fast den achtfachen Takt (800 gegenüber 108 kHz).

Nach ein paar Jahren Rechtsstreitigkeiten mit Intel sprach schließlich das US-Patentamt den beiden TI-Ingenieuren Gary Boone und Michael Cochran die Erfinderehre zu. Unberücksichtigt blieben natürlich dabei die Entwicklungen, die unter militärischer Geheimhaltung standen, etwa der Chipsatz MP944 der Luft- und Raumfahrtfirma Garrett AiResearch aus dem Jahre 1970. Der arbeitete bereits mit 20 Bit und hatte spezielle Hardware zum Multiplizieren und Dividieren.

Daneben machte auch noch ein gewisser Ingenieur namens Gilbert Hyatt von sich reden. Der hatte nachweisbar schon einige Zeit zuvor das Konzept eines Mikroprozessors vorgestellt. Auch ein Patent (4,942,516) hatte er erhalten, das aber erst 1977 erteilt und in den 90er-Jahren nach langem juristischen Streit mit TI im Juni 1996 für nichtig erklärt wurde. Der Erfinder des Mikroprozessors ist rechtlich gesehen also TI, real irgendwelche Rüstungsfirmen und in der Praxis Intel. Und daselbst erhob sich dann die große Not, wem denn wohl von den vier Hauptbeteiligten primär die Ehre zukommt, Stan Mazor, Ted Hoff, Federico Faggin – oder dem ehemaligen Busicom-Ingenieur Shima?

Egal, so richtig praktisch nutzbar waren weder der 4004 noch der 8008. Und so beeilte sich Faggin, zusammen mit Shima einen wirklich "vollwertigen" Mikroprozessor zu designen, der den Namen Prozessor auch verdient. Und das schafften die beiden mit dem 8080 mit nunmehr 6000 Transistoren in 6-Mikrometer-Technologie (6000 Nanometer). Doch bevor dieser seinen Siegeszug etwa im Altair 8800 antreten konnte, gabs Streit im Hause Intel. Faggin fühlte sich nicht genug gewürdigt, insbesondere von Andy Grove, damals operativer Direktor (COO), der Mikroprozessoren ohnehin nur für ein teures Steckenpferd von Intel-Chef Noyce hielt. So verließ Faggin im Oktober 1974 wutentbrannt Intel und nahm einen gewissen Ralph Ungermann gleich mit. Die beiden gründeten ein "Dorf" weiter in Cupertino die Firma Zilog und warben als erstes Masotoshi Shima von Intel ab. Und Zilog machte mit Finanzhilfe von Exxon dem 8080 in kürzester Zeit mit dem erweiterten, aber kompatiblen Z80 den Garaus. Er war bereits im März 1976 fertig und bot zusätzlich sehr effiziente String-Funktionen sowie einen zweiten Registersatz.

Grove war stinksauer auf Faggin und sorgte dafür, dass sein und Shimas Name überall aus offiziellen Intel-Dokumenten getilgt und somit allein Ted Hoff als Erfinder gepriesen wurde. Es sollte 35 Jahre dauern, bis sich die Streithälse im Jahre 2009 versöhnten und Intel darauf hin die "alternativen Fakten" wieder durch reale Fakten ersetzte. Diese befanden sich ja alle noch im Intel-Archiv, das durfte erstmals der Journalist Michael S. Malone im Jahre 2013/14 einsehen und mit den Kenntnissen ein Buch über "The Intel Trinity" schreiben.

Doch in der Zwischenzeit gab es diverse weitere Konkurrenz. Motorola hatte 1974 den 8-Bit-Prozessor 6800 herausgebracht, der sich am PDP11 der Digital Equipment Corporation (DEC) orientierte. Die Linie wurde 1976 mit dem 6809 und 6801 fortgesetzt, derweil war aber ein anderer "Abkömmling" vom abgewanderten Entwickler Chuck Peddle entstanden, der ähnlich konzipierte 6502 von MOS Technology. Vor allem der sollte richtig Furore machen, zunächst im Atari 800, Apple I, II, Commodore PET und VC-20, dann später im Jahre 1982 in Gestalt des 6510 im berühmtesten Brotkasten aller Zeiten, dem C64.

Die Väter des Intel 4004 Federico Faggin, Stan Mazor und Ted Hoff – der vielleicht wichtigste Mann, Masatoshi Shima, fehlt auf dem Bild natürlich.

(Bild: Intel)

Texas Instruments brauchte ein bisschen, um sich von dem Desaster mit CTC zu erholen und stampfte den ohnehin nicht gut funktionierenden 8-Bitter TMX1795 ein, hatte aber parallel dazu einen "calculator-on-a-chip" entwickelt, beziehungsweise unter dem Namen TMS0100 gleich eine kleine Serie. Die war sehr speziell für Taschenrechner ausgelegt, mit 9-bittigen Adressen und 11-bittigen Opcodes und vermutlich nur einer kleinen 1-Bit-ALU. So richtig erfolgreich wurde das Projekt aber mit dem 4/8-Bit Nachfolger TMS1000, mit dem TI ab 1974 zahlreiche Taschenrechner und Embedded-Systeme bestückte. Der TMS1000 gilt als der erste komplette Mikrocontroller, unter anderem enthielt er sogar schon etwas Speicher, was das Design drumherum sehr vereinfachte. Er kam so auf 8000 Transistoren. Noch erfolgreicher schlug sich dann die 16-Bit-Serie TMS9900 ab dem Jahre 1976. Das war zwar nicht der erste 16-Bitter – diese Ehre gebührt National Semiconductor mit dem IMP16-Chipsatz bereits im Jahre 1973 -, aber er war weit erfolgreicher als jener.

Motorola hatte derweil die 680x-Reihe mächtig aufgerüstet auf 35.000 (6801) beziehungsweise 40.000 Transistoren (6809). Der 6809 war wohl der erste (nichtmilitärische) Prozessor, der einen Hardware-Multiplizierer bot. Die Befehlssatzarchitektur (ISA) war durchgängig 16-bittig. Das richtige Biest, die "texanische Kakerlake", kam dann aber 1979 auf den Markt: der 68000. Seine Rechenhardware (ALU) war zwar nur 16-bittig, die ISA sowie alle acht Register hatten aber schon richtungsweisende 32 Bits. Damit lag der lineare Adressraum bei damals gigantischen 4 GByte, von denen bei der ersten Version allerdings nur 24 Adressbits herausgeführt wurden, mithin immer noch riesige 16 MByte. Chefarchitekt Skip Stritter hatte zuvor an dem (nicht besonders erfolgreichen) Mikroprozessor Micro/370 für IBM-370-Großrechner gearbeitet, sodass wohl etliche Ideen der 370-Architektur in den 68000-Prozessor mit eingeflossen sind.

Andere Firmen hielten sich mit eigenen Designs zurück, brachten stattdessen lieber Nachbauten heraus, teils mit, teils ohne Lizenz. Zu diesen Firmen gehörte die 1969 gegründete Firma AMD, die mit offiziellem Segen von Intel bereits den 8080 als AM9080A auf den Markt brachte.

Außerhalb der USA rührte sich damals in Sachen Mikroprozessoren nur wenig, lediglich in Japan startete NEC 1973 mit dem µCOM4und Toshiba ein Jahr darauf mit dem 12-Bitter TLCS-12. Der Rest der Welt, insbesondere Europa, schlief da weitgehend noch den Schlaf der Gerechten, jedenfalls was eigene Designs angeht. Eine Ausnahme war Norwegen, wo schon im Jahre 1972 im Auftrag des Verteidigungsministeriums ein interessantes 16-Bit-Design namens MIPROC entwickelt worden ist, das die britische Firma Plessey dann fertigte und für eine Million Pfund aufkaufte.

In Deutschland war Siemens immerhin schon sehr früh als offizielle Zweitquelle für Intel dabei, so findet man bereits einen SAB8008 und später die ganze Palette von SAB8080 bis SAB80286. Auf der anderen Seite der Demarkationslinie reagierte man ebenfalls zügig, mit einem nachgebauten 8008 unter dem Namen U808. Den hatte das Kombinat Mikroelektronik Erfurt, wen wunderts, natürlich ohne Lizenz abgekupfert, so wie später etliche weitere Chips von Intel und anderen. Lustige Anekdote dazu: DECs Chefentwickler Bob Sputnik hatte mal in den 80er-Jahren auf einem unteren Metall-Layer des CVAX-Prozessors eine Nachricht auf Russisch hinterlassen: "Wann hört ihr endlich auf zu klauen?" Davon berichtete Staatssekretär Karl Nendel, zuständiger "Oberklauer" der DDR, später in seiner Autobiografie.

Die niederländische Firma Philips hielt sich erst einmal recht bedeckt, kaufte aber 1975 die kalifornische Firma Signetics auf, die in 60er-Jahren mal größter Halbleiterhersteller in den USA war. In Italien baute SGS Microelettronica die Zilog-Prozessoren nach (Z80, Z8000) und fusionierte dann später mit dem französischen Staatskonzern Thomson SA. Der hatte zuvor, noch als Thomson Multimedia, Motorola-Chips (6809, 68000, 68008) gefertigt.

Mehr Infos

c't RETRO

Dieser Artikel stammt aus c't-RETRO. In der Spezialausgabe der c't werfen wir einen Blick zurück auf die ersten IBM-PCs und beleuchten den Siegeszug von Windows. Sie finden darin Praxis, Tests und Storys rund um Technik-Klassiker. Wir erinnern an Karl Klammer, stellen einen neuzeitlichen IBM-XT-Nachbau fürs Vintage-Computing vor und erläutern, wie Sie Daten von verkratzten CDs und Uralt-Festplatten retten können. c't RETRO ist ab sofort im Heise Shop und am gut sortierten Zeitschriftenkiosk erhältlich.

Intel besserte 1977 als Antwort auf den Z80 den 8080 etwas mit dem 8085 nach. Der Prozessor brauchte jetzt ebenfalls nur noch eine Betriebsspannung statt derer drei. Aber zu der Zeit war ein 16-Bit-Prozessor schon allmählich überfällig, so wie ihn die Konkurrenz bereits fertig oder in Arbeit hatte.

Intel hatte was in der Queue, sogar was Großartiges: den 8800 (später in iAPX 432 umbenannt). Bestehend aus drei Chips sollte das Ensemble dann gleich mit leistungsfähiger 32-Bit-Architektur und objektorientiertem Programmiermodell aufwarten. Doch es war absehbar, dass seine Entwicklung noch längere Zeit in Anspruch nehmen und die Chips sehr aufwendig und teuer sein würden. Vor allem aber stuften ihn die Analysen anderer Architekten im Hause als grottenlahm ein (war er dann auch). Man brauchte bei Intel also, um konkurrenzfähig zu bleiben, möglichst schnell einen preiswerten und einfach gestrickten, aber auf 16 Bit aufgebohrten 8085 – und dieser Notnagel sollte dann der 8086-Prozessor werden.

Der erbte vieles vom 8085, so etwa die Technik, Adress- und Datensignale zu multiplexen, um Pins zu sparen, und daher passte der 8086 weiterhin in ein preiswertes 40-Pin-DIL-Gehäuse. Aber 40 Pins, das war immer noch arg knapp und man musste ganz schön tricksen, denn es kamen ja zusätzliche Signale für den Coprozessorbetrieb und vor allem für einen größeren Adressraum (vier zusätzliche Bits für 1 MByte) hinzu. Für den Maximalmodus brauchte man daher noch einen zusätzlichen Buscontroller. Um 1 MByte logisch mit 16-Bit-Registern generieren zu können, führte Intel sogenannte Segmente ein, die Gesamtadresse wurde aus der Summe der um vier Bits nach links verschobenen Segmentregister und den acht normalen 16-Bit-Registern bestimmt. Bei den normalen hatte jedes zumeist sehr spezifische Aufgaben, mit dem einen konnte man dieses, mit dem anderen jenes machen.

Am 4. Juni 1978 wurde der 8086 offiziell vorgestellt, etwa ein halbes Jahr später kam er auf den Markt. Was das Intel-Management gegenüber seinen 8086-Entwicklern rund um Chef-Architekten Steven Morse lange Zeit verschwiegen hatte: Parallel zu ihrer Entwicklung wurde noch eine "kastrierte" Version namens 8088 entwickelt und zwar im weit entfernten Haifa in Israel. Im Silicon Valley hätte man das wohl kaum geheim halten können. Der wichtigste Unterschied des 8088 zum 8086 war, dass der Datenbus nach außen nur 8-bittig war, weshalb der Chip dem 8085 noch ähnlicher wurde. Damit konnte man dann die umgebende Hardware deutlich vereinfachen und verbilligen – allerdings auf Kosten der Performance. Daneben gab es noch ein paar weitere Änderungen, so wurde die sogenannte Prefetch-Queue, die ein paar Bytes schon vorab von den darauffolgenden Adressen einliest, von 6 auf 4 verkürzt. Und wie man weiß, hat IBM genau diesen 8088 und nicht den 8086 als Motor des IBM-PCs erkoren, um diesen einfach und schnell auf die Reise bringen zu können.

Andere Firmen hatten derweil auch erkannt, dass eine Verkleinerung des Datenbusses für bestimmte Marktsegmente sehr zweckmäßig sein kann. So brachte Motorola 1982 den 68008 heraus, ebenfalls mit 8-Bit-Datenbus, den man später etwa im Sinclair QL bewundern durfte.

Als IBMs PC-Erfolgsgeschichte so ab 1982/83 begann, tobte schon einige Zeit die Schlacht der preiswerten Home- und Spielecomputer – und dort bildeten sich zwei große Lager heraus, die sich zum Teil heftig bekämpften: 6502/6510 hier und Z80 da, später wurde daraus die Apple- und die PC-Fraktion, die sich rund 15 Jahre später zumindest prozessormäßig vereinte, vorübergehend, denn weitere 15 Jahre später steht wieder eine Trennung bevor: Apple hat angekündigt, bei den Macbooks und iMacs auf ARM zu wechseln. 6502 – 680x0 – PowerPC – x86 - ARM, Architekturwechsel sind für Apple offenbar kein Problem.

Die 6502-Fraktion war zunächst mit Apple II, VC-20, C64, Atari VCS2600 ("Pac-Man"), Nintendo Entertainment System (sein Prozessor Ricoh 2A08 war ein erweiterter 6502, "Super-Mario") oder BBC Acorn bestückt, die andere zog mit Sinclair ZX80/81, Sinclair Spectrum, Tandy TRS80, Video-Genie, Sharp MZ80, Amstrad/Schneider CPC oder auch mit einer Z80-Steckkarte im Apple II in die Schlacht.

Apple hatte sich zu dieser Zeit aber erst einmal aus dem Regiment verabschiedet. Der ohne Stephen Wozniak konzipierte Apple III ("der wurde vom Marketing und nicht von Ingenieuren gebaut", so Wozniak später) für über 4000 Dollar und mit nicht mehr zeitgemäßem 6502A (von Synertek, 2 MHz) wurde zwar ein paar Monate vor dem IBM PC vorgestellt, geriet aber zum Rohrkrepierer. Damit war die Bahn frei für den Erfolg des IBM PC.

Apples später komplett neu konzipierter Lisa, der Anfang 1983 mit integriertem, kleinem Monitor, mit Maus und GUI und mit 16/32-Bit-Prozessor 68000 auf den Markt kam, war zwar eine kleine Revolution, die aber ob seines Preises von rund 10.000 Dollar nur bei sehr elitären Kunden ankam. Das korrigierte Apple erst ein Jahr später mit dem MacIntosh, der mit 128 KByte fest eingelötetem Speicher ab 2500 US-Dollar angeboten wurde, natürlich ebenfalls bestückt mit dem 68000-Prozessor mit 8 MHz. Der Rechner wurde in den nächsten Jahren zwar verbessert unter anderem mit mehr Speicher, aber der Prozessor blieb bis zum MacIntosh II im Jahre 1987 (dann mit 16 MHz-68020) immer gleich.

Derweil hatten auch die edleren Home-Computer Motorolas 68000-Prozessor entdeckt. Insbesondere der Commodore Amiga – toll beworben seinerzeit von Andy Warhol – und der Atari ST sind Legende.

Auch die andere Community wurde gut bedient, wenn auch weniger von der Firma Zilog, die den 1979 vorgestellten 16-Bit-Nachfolgeprozessor vom Z80, den Z8000, nicht in die Erfolgsspur des Vorgängers bringen konnte. Das fing schon mit einem sehr schlechten Start an. Die Support-Chips und Entwicklungssysteme kamen nicht in die Pötte und die externe Memory Management Unit ließ übermäßig lange auf sich warten. Hinzu kamen diverse Bugs und außerdem war die Z80-Community recht unglücklich darüber, dass alte Z80-Software auf ihm nicht lief. So führte der Z8000 trotz recht guter Performance nur ein Schattendasein. Der alte Z80 hielt sich hingegen lange, sehr lange, quasi bis heute. Sein Takt wurde in den 80er–Jahren auf 8 MHz beschleunigt und in der CMOS-Version bis hinauf zu 20 MHz. 2007 brachte Zilog sogar noch eine abwärtskompatible Version namens eZ80 heraus (Uralt-Bastler kennen noch die gleichnamige Gleichrichterröhre). Der hat etliche neue Befehle, auch Multiplikation, verbreiterte Register und eine ALU-Breite von 24 Bit und war bei gleichem Takt dreimal so schnell wie der alte. Zudem erreichte er bis zu 50 MHz und "schluckte" fast nichts.

Doch den Job für die entsprechende Community übernahmen in den späteren 80er-Jahren dann Intel und AMD mit den 8086/88-Prozessoren und später mit dem 80286, der im August 1984 den IBM AT befeuerte. Für die breite Masse waren die PCs in den frühen 80er-Jahren noch zu teuer, aber spätestens mit den Selbstbausystemen wie dem c’t-86 oder den preiswerten Nachbauten aus Fernost oder von Amstrad/Schneider stürmten sie hierzulande in der zweiten Hälfte der 80er-Jahre die Wohn- und Kinderzimmer.

Intels 16-Bitter 80286 erweiterte nicht nur den Adressbereich um weitere 4 Bit auf 16 MByte, sondern führte auch im Hinblick auf Multiuser-Betrieb einen neuen geschützten Betriebsmodus ein, den Protected Mode. Der ist zwar heute noch vorhanden, wird aber kaum noch genutzt. Die IPC-Zahl (Instructions per Clock) des 80286 war etwa doppelt so hoch wie die vom 8086, zudem ging sein Takt hinauf auf bis zu 12 MHz. Mithin lag sein Performancezuwachs gegenüber dem 8086 mit 5 MHz so um Faktor 5. Davon träumt Intel heute, dass mal eine neue Generation fünfmal so schnell ist wie die vorherige. Hinzu kamen noch Hardware-Einheiten fürs Multiplizieren und Dividieren, die bei 16 Bit bis zu zehnmal so schnell wie die Algorithmen beim 8086 waren – und das bei gleichem Takt!

Doch der richtig große Schritt nach vorne, der Intel auch den Eintritt in den lukrativen Servermarkt bis hinauf in den Bereich der Mainframes und Supercomputer ermöglichte, gelang mit dem unter Leitung von John Crawford und dem Chefarchitekten Pat Gelsinger designten 32-Bitter 80386. Sein Launch fand am 17. Oktober 1985 statt; Compaq baute ihn schon wenige Monate darauf in den Deskpro 386 ein – IBM brauchte sieben Monate länger, wo dann die ersten 386er im Jahre 1987 das PS/2 Model 80 antrieben.

Der 386 war nicht Intels erster 32-Bitter, aber der bereits erwähnte luxuriöse iAPX32 hatte gegen ihn keine Chance und verlor klar im internen Wettbewerb. Über diesen Revierkampf ("turf war") schrieb Pat Gelsinger mal in einem Artikel für c’t zum 25. Geburtstag des PCs.

Der 80386 hatte nicht nur volle 32 Bit mit 4 GByte Adressraum, sondern er führte auch virtuelle Speicheradressierung, Paging und lineare Adressierung ohne Segmente ein, was als Schutzkonzept den recht umständlichen Protected Mode schnell verdrängte. Vor allem hatten die Schöpfer an Kompatibilität gedacht, denn mit dem virtuellen 8086-Modus konnte man den Real Mode des 8086 effizient emulieren und so auch unter 32-Bit-Betriebssystemen uralte DOS-Programme laufen lassen. Erst mit Windows 10 war das vorbei, doch hier helfen Emulatoren wie DOSBox.

Außerdem erweiterte der 386 massiv die ISA, die nun ein erheblich höheres Maß an Orthogonalität gewann. Bis auf ein paar Feinheiten (etwa Stringbefehle oder Spezialitäten etwa bei MUL und DIV), kann man nun die Register (außer dem Instruction Pointer) weitgehend gleichwertig verwenden.

Was allerdings 32-Bit angeht – da war die Konkurrenz um einiges schneller. Motorola brachte ein Jahr früher als Intel den 68020 mit voller 32-Bittigkeit, also für ALU, Daten- und Adressbus. Der hielt dann schnell Einzug im MacIntosh II und im Amiga 1200. Es gibt nicht wenige, die schwärmen noch heute davon. Der erste vollwertige Mikroprozessor mit 32 Bit ist hingegen fast vollständig vergessen, er kam schon 1980 aus den Bell Labs von AT&T und hieß BELLMAC-32A. Später gab es einen Nachfolger davon, den mit 250 mW sehr stromsparenden Hobbit, den Apple mal erwog, in den geplanten PDA "Newton" einzubauen – aber dafür fand man noch was Besseres.

Denn ziemlich überraschend kam 1987 aus Großbritannien der Archimedes-Rechner von Acorn mit einem neuartigem 32-Bit-Prozessor. Das heißt, so neu war dessen Konzept nicht, denn das zugrunde liegende RISC-Prinzip hatte IBM schon in der 70er-Jahren entwickelt und später wurde der von John Cocke konzipierte 801-Prozessor zum Vorläufer der Power-Architektur. Die Idee bei RISC (Reduced Instruction Set Computer) war, die Hardware möglichst einfach, die Befehle möglichst alle gleich lang und leicht dekodierbar und die ISA möglichst orthogonal zu gestalten. Für die Optimierung des Ablaufs sollte dann der Compiler sorgen.

Die RISC-Idee stieß in den Elite-Unis in Kalifornien auf Begeisterung. An der Uni in Berkeley setzte David Patterson sie ins Berkeley-RISC-Projekt um, aus dem später der Sun-SPARC-Prozessor erwuchs. Und etwas weiter südlich in der Stanford University legte John Hennessy die Grundlagen für den MIPS-Prozessor. Und weit weg im englischen Cambridge gab es eine geniale Sophie Wilson – sie hieß damals noch Robert Wilson–, die gemeinsam mit Steve Furber Anfang der 80er-Jahre einen großen Erfolg mit dem BBC-Microcomputer mit 6502-Prozessor verbuchen konnte. Den Prototypen mussten sie (mit zwei Helfern) in vier Tagen hinzaubern. Für den nächsten Rechner fragten sie bei Intel an, ob es eine Möglichkeit gebe, den 80286 als Softcore in Lizenz zu bekommen, was Intel aber ablehnte – Intel wollte Chips verkaufen und keine Designs – und sich heute darüber ärgern dürfte.

So fuhren Wilson und Furber in die USA, hörten sich Patterson an und beschlossen dann: Wir machen was Eigenes. Das dauerte dann ein bisschen, aber mit finanzieller Unterstützung von Olivetti bekamen sie ihn fertig: den ARM-Prozessor alias Acorn (oder später Advanced) RISC Machine. Im Archimedes 300/400 von 1987 wirbelte dann bereits der ARM 2 mit 8 MHz. Ein Jahr später, etwa gleichzeitig mit Intels 486-Prozessor, kam der ARM3 mit 25 MHz und, wie der 486 auch, mit integriertem Cache heraus.

Da war Apple bereits auf den neuen Prozessor aufmerksam geworden und überredete Acorn, das Prozessorgeschäft in eine Tochterfirma auszulagern, in die Apple mit 40 Prozent einstieg. Und wie man weiß, wurde die ARM-Architektur erfolgreich, sehr erfolgreich und beherrscht heutzutage nahezu vollständig den Smartphone- und Tablet-Markt. Außerdem treibt die mit der neuen Vektoreinheit SVE versehene ARM-Architektur neuerdings den weltschnellsten Supercomputer "Fugaku" und in Zukunft eben auch die iMacs und Macbooks an.

Das SPARC-Design von Patterson, das dann Sun (über Fertigungspartner) und später Fujitsu in Hardware gossen, baute auf einem großen Satz von internen Registern auf, von denen die CPU immer nur einen Teil "sieht". Bei jedem Unterprogramm-Aufruf wird das Registerfenster verschoben, was eine bequeme und schnelle Übergabe von Parametern und Ergebnissen einfach durch Fensterverschiebung ermöglicht. Suns erste SPARC-Prozessoren (zunächst noch ohne Cache) baute Sun-Mitgründer Andreas von Bechtolsheim ab 1987 in die SparcStation ein, die schnell einen guten Platz im Workstation-Bereich eroberte. Später in den 90ern kamen dann SuperSPARC, TurboSPARC und ab 1995 diverse 64-bittige UltraSPARC-Versionen, die bis zum Jahre 2013 weiterentwickelt wurden. Dann fiel Sun keine Steigerung von Ultra mehr ein und der stattdessen entwickelte Rock-Prozessor wurde zum Debakel.

Beim Wettlauf um 64 Bit hatte Intel-Konkurrent MIPS die Nase weit vorn. Der R4000 erschien bereits 1991 und lief mit damals atemberaubenden 100 MHz. Bekanntlich brauchte die x86-Konkurrenz für 64 Bit zwölf Jahre länger, bis 2003 der AMD Opteron herauskam. Erfolgreich war MIPS vor allem in den Unix-Workstations von Silicon Graphics, aber auch Siemens beziehungsweise dann Siemens-Nixdorf setzten für ihre Server die R4000- bis R10000-Prozessoren ein, letzterer mit 270 MHz. Das Ende der großen Serverchips von MIPS kam 2004 mit dem R16000A, der 1 GHz Takt erreichte. Aber das Design lebt weiter in den chinesischen Loongson-Chips – und in den kleinen x86-Chips von VIA Centaur.

Zweiter im 64-Bit-Rennen war ein Neuling im Mikroprozessormarkt, der einst zweitgrößte IT-Konzern der Welt, die Digital Equipment Corporation (DEC). Sie hatte zuvor nur für den eigenen Bedarf Mikroprozessoren unter dem Namen MicroVAX entwickelt und das PC-Geschäft völlig unterschätzt. Das sollte dann 1992 ein komplett neu entwickeltes 64-Bit-RISC-Design namens Alpha richten, das mit der alten 32-bittigen VAX-Architektur nichts mehr gemein hatte. Die erste Alpha-Version 21064 (EV4) war für den PC-Markt nicht wirklich geeignet. Das wurde ein paar Jahre später mit dem vom späteren AMD-Architekten Dirk Meyer designten 21164 (EV5) behoben. In Deutschland verkaufte die mit Homecomputern groß gewordene Firma Vobis PC-artige Alpha-Systeme mit 21064 und 21164 und mit Windows NT, das es von Microsoft auch für MIPS und Alpha gab. Viel Erfolg hatte DEC im PC-Bereich allerdings nicht, besser liefs auf dem Servermarkt. Aber die Alpha-Entwickler waren immer ganz weit vorne bei neuen, interessanten Architekturverbesserungen. Der 21264 (EV6) glänzte mit Out-of-Order-Architektur bei sehr hohem Takt, der 21364 (EV7) mit integriertem Speichercontroller. Und für später war mit dem EV8 vierfaches Multithreading vorgesehen. Doch bevor es so weit war, gabs plötzlich DEC nicht mehr, der einstige Riesenkonzern wurde vom PC-Hersteller Compaq geschluckt.

Unter dem Projektnamen Somerset rauften sich im Oktober 1991 Apple, IBM und Motorola zusammen, um als AIM-Allianz eine gemeinsame Prozessorplattform zu bilden. IBM steuerte eine vom Power1 abgeleitete RISC-Architektur bei und Motorola das Bus-Interface des 88110. Motorola hatte zu dem Zeitpunkt den 68040 auf dem Markt, mit L1-Caches, integrierter FPU und bis zu 40 MHz Takt. Nach zwei Jahren Arbeit kam der erste PowerPC 601 heraus (zunächst für die IBM-RISC-System/6000-Linie) und wurde vom Time Magazine zum "Product of the Year 1994" gekürt. Er protzte geradezu mit 32 32-Bit-General-Purpose- und 32 Gleitkommaregistern – viermal so viel wie der Pentium. Zudem arbeitete er dreifach superskalar und besaß mit 32 KByte einen großen L1-Cache. Er kam mit 80 MHz (im MacIntosh 8100) und ein halbes Jahr später als 601+ mit 110 MHz heraus – und konnte damit den konkurrierenden Pentium in der Performance zumeist deklassieren.

Parallel dazu erschien 1994 noch Motorolas 68060; er hatte aber noch schlechtere Marktchancen. Allein in den Amiga wurde er eingebaut, Apple hingegen schwenkte mit dem PowerMac im Frühjahr 1994 voll auf PowerPC um. Aber ohne Steve Jobs schaffte es Apple zunächst nicht, die Transition auf die PowerMacs erfolgreich über die Bühne zu kriegen, dazu war die preiswertere "Wintel"-Konkurrenz zu mächtig.

Intel hatte 1989 den i486-Prozessor eingeführt, den Prozessor, der zuerst die Millionenmarke an Transistoren überschritt, mehr als viermal so viel wie der 386. Das lag an dem integrierten x87-Coprozessor, der beim 386er noch in einer separaten Fassung auf dem Board Platz fand, sowie am L1-Cache von 8 KByte. Mit 25 und 33 MHz lag er im Takt allerdings unter den schnellen 386-Versionen der Konkurrenz AMD, die bereits mit 40 MHz liefen. Im März 1992 legte Intel mit dem DX2 nach, der den Takt intern verdoppelte, und brachte im März 1994 mit dem 486DX4 gar einen auf 100 MHz "vervierfachten" Takt samt 16 KByte L1. In Wahrheit war der Takt aber nur verdreifacht, er brauchte also extern 33 MHz. Auch hier setzte Nachbauer AMD mit dem AMDX4-120 noch eins drauf, allerdings ohne verdoppelten L1-Cache. Den AMDX4-133 mit 16 KByte L1 nannte AMD dann AM5x86-P75, um ihn namentlich gegen den Pentium zu stellen.

Denn in der Zwischenzeit hatte Intel schon zum nächsten Schlag ausgeholt, mit einer komplett neuen Architektur. Die hieß jetzt nicht wie erwartet 586, sondern eben Pentium (P5), um es den lästigen Nachbauern schwerer machen – denn Pentium ließ sich im Gegensatz zu reinen Zahlenfolgen wie 286, 386 und 486 markenrechtlich schützen. Der Pentium war der erste superskalare Prozessor von Intel, der die Befehle in Pärchen aufteilen und in zwei Pipelines mit eigenen ALUs ausführen konnte. Dennoch lief alles "in order": War eine Pipeline mit der Ausführung fertig, musste sie gegebenenfalls warten, bis auch die andere fertig war, bevor es weiterging. Der Prozessor hatte, wie seitdem alle Intel-Prozessoren, getrennte L1-Caches für Instruktionen und Daten sowie maschinenspezifische Register (MSR). Nach außen kommunizierte er über einen 64-bittigen Datenbus.

Die ersten Versionen mit 60 beziehungsweise 66 MHz wurden jedoch von den höher getakteten und weitaus preiswerteren 486DX4-Chips in vielen Benchmarks locker abgehängt. Das galt allerdings nicht für Gleitkommaberechnungen, denn die neuen Multiplikations- und Divisionseinheiten des Pentium stellten alles Herkömmliche in den Schatten. Blöd nur, dass sich die Divisionseinheit manchmal verrechnete. Dieser Bug sollte unter dem Namen FDIV-Bug in die Geschichte eingehen. Intel verheimlichte den Fehler zunächst und spielte ihn dann herunter. Andy Grove bat aber schließlich die Welt um Verzeihung, gelobte Besserung, startete eine "lebenslange" Umtauschaktion und seitdem veröffentlicht Intel unter "Specification Updates" die bekannten Prozessorfehler. Ein Jahr später kam der Pentium P54C mit bis zu 120 MHz und schließlich der P55C mit 233 MHz sowie auf 32 KByte verdoppeltem L1-Cache – plus einer ganz wesentlichen Neuerung, der ersten SIMD-Vektoreinheit (Single Instruction, Multiple Data) namens MMX. Diese Multi Media Extension führte zwei 32-Bit-Integer-Operationen (wahlweise 4 × 16 Bit oder 8 × 8 Bit) parallel aus und nutzte dafür die unteren 64 Bit der x87-Register.

Für den Sockel 5/7 des Pentium gab es aber bald schon heftig Konkurrenz. Der schon erwähnte AM486DX4 sollte der letzte Nachbau von AMD sein, danach setzte man auf eigene Architekturen. Mit dem 32-bittigen RISC-Prozessor AM29000 hatte man bereits einen sehr erfolgreichen Embedded-Chip etwa für Laserdrucker. Chefarchitekt Mike Johnson traute sich auch zu, einen eigenen x86 zu konstruieren. Für den K5 bastelte er rund um einen 29000-Kern eine Übersetzungseinheit für x86-Befehle und versah den Chip mit dem P5-Bus. Die erste Version war noch nicht so wirklich fertig, kam aber schon als 5k86 im Frühjahr 1996. Es folgte der K5 mit 90 bis 120 MHz, der sich trotz trickreichen Marketings (sogenannte Performance-Ratings statt Taktangaben) nicht durchsetzen konnte. Was Besseres musste her. Und zufällig gab es eine kleine Entwicklerbude namens NexGen, die 1994 einen NX586 mit RISC-Kern und Out-of-Order-Architektur herausgebracht und auf dem Microprocessor Forum 1995 mit dem Nachfolge-Design NX686 reichlich Aufmerksamkeit erregt hatte. Die schnappte sich AMD samt Entwickler, warb von Intel noch den Pentium-Mitentwickler Vinod Dham ab, der den NX686 auf den pentiumkompatiblen Sockel 7 umstellte. Heraus kam der K6, gefolgt vom K6-II und -III, wobei der K6-II schon als A-Step stabil lief – das gab es später weder bei AMD noch bei Intel je wieder. Und den K6 konnte AMD auch recht gut verkaufen. Mit 3DNow! ersann AMD zudem eine eigene SIMD-Einheit für den K6-II, die mehr konnte als Intels MMX, nämlich mit Gleitkommagenauigkeit rechnen. Auch Cyrix und Centaur unterstützten 3Dnow!, nur Intel nicht, die hatten ja SSE in Planung.

Und es gab noch weitere Firmen, die sich um den Sockel 7 bemühten. Aus Texas kam die Firma Cyrix, die zunächst mit schnelleren Coprozessoren schon bei den 287- und 387ern die Intel-Pendants deutlich abhängen konnte. Erfolg hatte die Firma dann mit verschiedenen 486-kompatiblen Prozessoren mit 1 oder 8 KByte Cache, die allerdings für den 386-Sockel ausgelegt waren. Selbst für den aufgelöteten 386SX gab es einen Adapter, den man einfach darüberstülpen konnte. Cyrix brachte dann mit dem M1 einen Prozessor für den Pentiumsockel, den auch IBM und TI vermarkteten. Es lief allerdings nicht so gut und die Firma wurde 1997 zunächst von National und später von Via übernommen. Unter M2, umgetauft in Cyrix-6x86MX, wollte Cyrix dann einen großen Wurf landen, eine Art Pentium II für den Pentium-Sockel 7. Dummerweise hatte aber ausgerechnet c’t einen Interrupt-Bug beim Cyrix-6x86MX entdeckt, der die Firma mehr als ein halbes Jahr zurückwarf. Sie hat sich davon nie mehr erholt und wurde dann von der noch kleineren Chip-Schmiede Centaur, ebenfalls aus Texas, ebenfalls zu Via gehörend, ausgeknockt. Sorry an dieser Stelle.

Centaur hatte seine Winchips rund um einen 32-bittigen MIPS-Kern gebaut, mit x86-Decodern und Pentium-Bus. Aber man konnte den Prozessor weiterhin nativ mit MIPS-Befehlen ansprechen. Anders als Cyrix schaffte es später die Firma in Windeseile, ihre Prozessoren auf den Sockel 370 (Pentium II) umzustellen. Und dank zahlreicher Patente, neuer Chips und Lizenzen nach China lebt die Firma auch heute noch. Auch der Rise mP6 konnte sich als Vortex86 nach China retten.

Mit dem Pentium und seinen Kompatiblen endet nun dieser Parforceritt durch die ersten 25 Jahre der Mikroprozessoren. Alles Weitere zum Pentium Pro, Itanium, Pentium 4, Core, Athlon, Opteron, Epyc, Crusoe, PowerPC G3 ... G5, ARMv5 ... 8, Power3 ... 10, Cell et cetera ... ist eine andere Geschichte.

Mehr Infos

c't RETRO

Dieser Artikel stammt aus c't-RETRO. In der Spezialausgabe der c't werfen wir einen Blick zurück auf die ersten IBM-PCs und beleuchten den Siegeszug von Windows. Sie finden darin Praxis, Tests und Storys rund um Technik-Klassiker. Wir erinnern an Karl Klammer, stellen einen neuzeitlichen IBM-XT-Nachbau fürs Vintage-Computing vor und erläutern, wie Sie Daten von verkratzten CDs und Uralt-Festplatten retten können. c't RETRO ist ab sofort im Heise Shop und am gut sortierten Zeitschriftenkiosk erhältlich.

(csp)