zurück zum Artikel

50 Jahre AMD: Der Underdog, der richtig beißen kann

| Nico Ernst

AMD erfreut sich nach vielen Tiefen heute wieder über echte Erfolge. Immer wieder gibt es Streit mit Intel – das begann schon, bevor die Firmen existierten.

"Real men have fabs" - Echte Männer besitzen Halbleiterfabriken. In diesem in der Chipbranche inzwischen geflügelten Wort, das sich auch für sein Unternehmen später als falsch herausstellen sollte, steckt der ganze Ehrgeiz bis hin zur Sturheit, der AMD noch heute auszeichnet. Der Satz stammt von Firmengründer Jerry Sanders, der bei Produktentwicklung und Marketing nie um große Sprüche verlegen war.

Leisten konnte sich das die Firma AMD aber erst, als sie in der IT-Welt unersetzbar geworden war - nicht nur als Gegengewicht zu Intel, sondern auch als Innovationskraft. Wie auch beim bis heute übermächtigen Konkurrenten war das vor 50 Jahren aber bei weitem nicht absehbar. Denn der Mikroprozessor, mit dem beide Firmen heute assoziiert werden, war 1969 noch gar nicht erfunden.

Die Ursuppe der modernen Prozessorbranche brodelte Ende der 1960er Jahre im Unternehmen Fairchild, das mit viel Aufwand und Erfolg die ersten kommerziell erfolgreichen integrierten Schaltungen entwickelte und verkaufte. Das Umfeld würde man heute als die erste Phase der Digitalisierung bezeichnen, denn die weltweite Nachfrage nach elektronischen Rechenmaschinen, die heute jeder Taschenrechner in Leistung und Funktion überbietet, war enorm. Und auch damals war es schon üblich, dass bei so schnell wachsenden Unternehmen, die auch Geld verdienen, bald die Buchhalter den Kreativen die Richtung vorgeben.

50 Jahre AMD: Prozessoren (0 Bilder) [1]

[2]

Bereits im Juli 1968 verließen daher Robert Noyce, Gordon Moore und Andrew Grove Fairchild, um Intel zu gründen. Jerry Sanders wollte mitkommen, das Intel-Dreigestirn war dagegen, den extrovertierten Mann mit früheren Schauspielerambitionen zu einem Gesicht der Firma zu machen. Vielleicht ist es diese Kränkung, die den auch später mit mühsam gepflegtem Cowboy-Image samt Stiefeln und Bolo-Tie auftretenden Sanders immer weiter antrieb, es den anderen Jungs so richtig zu zeigen.

AMD

Jerry Sanders 1969 mit roter Schaufel beim Spatenstich für AMDs Zentrale in Sunnyvale.

(Bild: AMD)

Dabei wuchs Sanders gar nicht im mittleren Westen auf, sondern in Chicago, und obwohl AMD schon früh auch in Texas vertreten war, wurde die Firma doch zuerst im kalifornischen Santa Clara als "Sanders Association" am 1. Mai 1969 gegründet, und zog bald als "Advanced Microdevices" ins nahegelegene Sunnyvale um.

Sowohl personell als auch räumlich ist die Geschichte von AMD also sehr eng mit der von Intel [3] verknüpft, weshalb auch der Rückblick auf Sanders' Unternehmen nicht ohne Bezüge zum Mitbewerber möglich ist. Er verließ AMD erst 2002 und war damit 33 Jahre CEO des Halbleiterherstellers.

Zurück nach 1969: Ein knappes Jahr nach dem Abgang der Intel-Gründer wollte eine andere Gruppe um Ed Turney, John Carey, Sven Simonsen und Jack Gifford bei Fairchild ebenfalls aussteigen. Sanders, den Fairchild kurz zuvor gefeuert hatte, wollte nicht wieder scheitern und sagte nur zu mitzukommen, wenn er gleich Chef des neuen Unternehmens werden würde. Die anderen gaben schließlich nach - mit seinem Doppeltalent als Ingenieur der Elektrotechnik und Leiter der Vertriebs- und Marketingabteilung von Fairchild konnte man Sanders sicher gut brauchen.

Nicht nur die industriellen, sondern auch die zeitlichen Bezüge erklären, warum damals im Silicon Valley so viel Aufbruchsstimmung herrschte. Es war die Ära von Flower Power, und - ganz anders als heute - waren Immobilien zwischen San Francisco und San Jose recht günstig zu haben. Die nahe Stanford-Universität lieferte Fachkräfte.

Bronzebüste von Jerry Sanders in der heutigen Firmenzentrale von AMD.

Bronzebüste von Jerry Sanders in der heutigen Firmenzentrale von AMD.

(Bild: Nico Ernst)

Für Advanced Microdevices begann die Geschäftstätigkeit mit in Lizenz gefertigten Logikbausteinen von National Semiconductor und Fairchild. Richtig spinnefeind war man sich in der jungen Branche damals noch nicht - ausgerechnet Intel-Mitbegründer Robert Noyce gehörte zu den ersten Risikokapitalgebern von AMD.

Mit dem Vier-Bit-Schieberegister Am9300 kündigte die junge Firma im November ihr erstes Produkt auf Basis der Lizenzen an - verkauft wurde es erst Mitte 1970. Parallel dazu lief aber schon die Entwicklung eigener Designs. Diese Doppelstrategie - nachbauen und selbst forschen - sollte noch lange erfolgreich sein.

Als ersten eigenen Chip führt AMDs offizielle Historie [4]heute den ebenfalls 1970 vorgestellten Am2501, einen Digitalzähler, der vorwärts wie rückwärts arbeiten konnte. Ein Jahr später kam der Am2505 auf den Markt, seinerzeit der schnellste digitale Mulitplizierer. Solche Schaltungen bilden auch heute noch die Basis von Ausführungseinheiten wie einer ALU in CPUs wie GPUs. Daneben produzierte AMD auch DRAM und EPROMs.

Walter Jeremiah Sanders III etablierte bei der schnell wachsenden Produktpalette von Anfang an ein Prinzip, auf das der Rest der Branche bisher weniger Wert gelegt hatte: Die Chips mussten, egal für welchen Einsatzzweck vorgesehen, nach militärischen Standards getestet werden. Ob er das US-Militär als Kunden im Blick hatte ist nicht bekannt, sinnvoll war das aber ohnehin, denn der neumodische Digitalkram fiel in den 1970er Jahren noch viel häufiger aus als heute. Erst 1976 zahlte sich das Testen sichtbar aus, denn sowohl NASA wie Verteidigungsministerium zertifizierten AMD-Produkte für den Einsatz in ihren Systemen.

Der Fokus auf Qualität brachte AMD schon vorher viel Renommee. Auch intern machte man schon früh vieles anders. Sanders zeigte seinen eigenen Wohlstand gerne und lud unter anderem zu opulenten Weihnachtsparties, um seine Mitarbeiter zu motivieren, durch den Erfolg des Unternehmens auch selbst reich zu werden. Zudem erhielten die Angestellten Erfolgsprämien und - damals noch ungewöhnlich - Beteiligungen am Unternehmen.

An die Börse ging man jedoch erst 1979, seit 1972 gab es nicht öffentlich gehandelte Anteile. Vor dem Börsengang wurde mit wirtschaftlichem Erfolg viel Infrastruktur geschaffen. 1973 eröffnete AMD ein erstes Werk für die Montage von Chips in Malaysia, im Jahr 1974 erzielte das Unternehmen bereits einen Umsatz von über 25 Millionen US-Dollar und 1978 waren dann die 100 Millionen erreicht. Damit konnte die erste eigene Halbleiterfabrik im texanischen Austin gebaut werden, und an der NYSE kamen die Aktien in den Handel. Alles gut also? Nicht so ganz.

Den voll programmierbaren Mikroprozessor hatte AMD nämlich eine zeitlang ignoriert. Intel hatte ihn mit der 4-Bit-CPU bereits 1971 vorgestellt, was jedoch zuerst kein großer Erfolg war. Die Chips waren teuer und dabei nicht einmal immer schneller. Das waren unter anderem die Bit-Slice-Bausteine [5] der Serie Am2900, die sich in einem Baukastensystem zu flexiblen Rechnern mit größeren Datenbreiten kombinieren ließen. Dafür benötigte man dann zwar mehr Chips, aber bei den damals nicht universell verwendbaren Computern, die meist eigene, auf die Hardware zugeschnittene Programmiersprachen benötigten, war das nicht weiter tragisch. Zudem waren die euphemistisch "Minicomputer" genannten Maschinen in der Regel immer noch so groß wie ein Kleiderschrank.

Mit dem 8080 hatte Intel sein Konzept aber 1974 marktreif gemacht, und AMD war schlau genug, es genau zu analysieren - per Reverse Engineering. 1976 gab es dann das erste von vielen weiteren Patentaustauschabkommen mit Intel, was es AMD ermöglichte, auch den 8080 selbst herzustellen.

Dass AMD die Intel-Chips nur kopiert und von Intels Know-how schmarotzt, ist dabei eine immer wieder zu hörende Verleumdung. Intel kann durch die "Cross License Agreements" ja auch AMD-Erfindungen nutzen, besonders prominent zu sehen war das viel später bei Intels ersten 64-Bit-Erweiterungen für Desktop-CPUs, die auf AMDs Technik basierten. Windows holte sich auch auf Intel-Rechnern die Bibliotheken aus dem Ordner "AMD64".

Im Jahr 1981 erfolgte dann das, was AMD und Intel endgültig aneinander binden sollte und die Landschaft der Computerei für das ebnete, was sie heute ist: IBM stellte nach langer Zusammenarbeit mit der gesamten Branche den "Personal Computer" vor. Der Riesenkonzern machte seinen Zulieferern dabei Auflagen, um nicht von einzelnen Unternehmen abhängig zu sein. Also erweiterten AMD und Intel ihr Abkommen, insgesamt sollten den 8086-Prozessor für den PC acht Firmen herstellen: AMD, Fujitsu, Harris, Intel, Matra-Harris, Mitsubishi, NEC und Siemens. Später gab es noch viele andere wie Cyrix und VIA, aber durch die frühe Lizenzfertigung und IBMs ausdrücklichen Wunsch, AMD ins Boot zu holen, hatte dieses Unternehmen bei den PC-Prozessoren immer schon eine feste Position als Zweiter hinter Intel.

Wenig bekannt ist, dass AMD 1981 ebenfalls seine Entwicklung von Z80-kompatiblen Prozessoren einstampfte, für die Siemens vier Jahre zuvor 20 Prozent der Anteile des Chipherstellers übernommen hatte. Die gemeinsame Firma "Advanced Micro Computers" (AMC) war ein Flop, aber Siemens sprang schnell auf den PC-Zug auf - und fuhr ihn danach konsequent an die Wand. Die letzten Reste der einst tollen Siemens-PCs hält heute Fujitsu, und auch deren Rechner werden bald nicht mehr in Deutschland hergestellt.

Ab 1982 lieferte AMD x86-Prozessoren an IBM und die vielen Hersteller von PC-Klonen aus. Mit dem Am286 folgte 1984 der erste 16-Bitter, noch auf Basis des Intel 80286, und 1991 dann der Am386.

Dem ging jedoch ein fünf Jahre währender Rechtsstreit mit Intel voraus, denn deren 80386, der einen bisher unbekannten Performanceschub brachte, war bereits 1987 erschienen. Intel wusste, was die 32-Bit-CPU mit virtueller Speicherverwaltung bedeutete, und kündigte das Patentaustauschabkommen kurz vor der Markteinführung. Alles bis zum 80286 durfte AMD noch klonen, aber eben den 32-Bitter nicht. Also machte man sich wieder ans Reverse Engineering, war nach rund einem Jahr fertig, und verklagte Intel seinerseits. Im Am386 steckte dann soviel Eigenentwicklung, dass die CPU als erster "richtiger" x86-Chip von AMD gilt.

AMD hätte während des langen Streits mit Intel auch aufgeben können, hatte das Unternehmen doch mit EEPROMs und Modems auch andere Standbeine - 1986 gab es sogar das weltweit erste Megabit-EEPROM, das lange verkauft und seinerseits an Lizenznehmer vergeben wurde.

Aber die eingangs erwähnte Beharrlichkeit war erfolgreich: Ab 1992 durfte der Am386 verkauft werden und lief problemlos. Schon im ersten Produktionsjahr wurde eine Million davon abgesetzt und danach begann AMD Intel richtig zu ärgern: Der 80386 brachte es höchstens auf 33 MHz, der schon 1992 verfügbare Am386-DX40 aber auf 40 MHz. Intel hatte sich offenbar zu lange auf der eigenen Fertigung und der Hoffnung auf einen Sieg vor Gericht ausgeruht.

Da AMD aber später dran war, musste es die Prozessoren billiger anbieten, um bei den PC-Herstellern, die schon gut vier Jahre lang Intels 386er verbaut hatten, überhaupt Fuß zu fassen. Das führte dann aber dazu, dass insbesondere der DX40 unter kleinen und kleinsten PC-Herstellern zum Preis/Leistungs-Tipp wurde.

Anfang der 1990er Jahre wurden PCs auch für Privatanwender interessant und viele lokale Unternehmen befriedigten diese Nachfrage - oft mit AMD-PCs. Um Lappalien wie Kühlung musste man sich da noch nicht sorgen, der DX40 brauchte etwas über drei Watt bei 5 Volt Versorgungsspannung. Dank des höheren Taktes konnte der DX40 sogar den kleineren Modellen des bereits 1989 erschienen - und anfangs sündteuren - 80486 bei vielen Anwendungen davoneilen.

Trotz der Erfolge konnte AMD die fünf Jahre, die man gegenüber dem 80386 verloren hatte, lange nicht mehr aufholen. Die Produktstrategie blieb also über mehrere Generationen gleich: Mehr Leistung zum gleichen Preis, dafür aber später verfügbar. Und wann immer möglich, schlägt man Intel mit einem besonderen Trick wie dem leicht höheren Takt wie beim DX40. Schön gelang das mit dem Am486-DX4. Mit seiner DX-2-Serie hatte Intel schon 1992 die Verdopplung des internen Taktes gegenüber dem des Frontside-Bus (FSB) eingeführt, AMD verdreifachte die Frequenz aber zwei Jahre später. Zudem waren bei machen Modellen wieder 40 statt 33 MHz FSB-Takt geboten, später sogar 50. Vor allem der günstige DX4-100, allerdings mit 33 MHz FSB, aber intern 100 MHz, war ein feines Technikspielzeug. Das galt sogar noch, als Intel 1993 die ersten Pentium-Prozessoren auf den Markt brachte.

Das Megahertz-Marketing funktionierte damit erst so richtig. Die 100 MHz eines DX4-100 konnten oft den 60-MHz-Pentium schlagen, egal wie oft Intel betonte, dass die durchaus bahnbrechende superskalare Architektur mit zwei Pipelines eigentlich ja doch überlegen sei. Es dauerte eben schon damals seine Zeit, bis die Softwareentwickler sich darauf einstellten. Nach einem Fehlstart durch den berüchtigten FDIV-Bug [6]der ersten Pentiums bekam AMD zwar noch etwas Luft, aber klar war: Die bestehende Architektur war ausgereizt, und etwas superskalares hatte man noch lange nicht zu bieten. Also blieben nur wieder technische Kniffe und viel Marketing.

Dass der Trick mit der Taktfrequenz alleine nicht mehr reichte, zeigte das "P-Rating". Ein 5x86-P75 wies auf Vergleichbarkeit mit einem 75 MHz schnellen Pentium hin, lief aber mit realen 133 MHz und erschien Ende 1995. Vom höheren Takt hatten vor allem Integer-lastige Programme etwas, die viel schnellere FPU der Pentiums wurde aber immer öfter genutzt. Die Multimedia-Erweiterungen MMX fehlten bei AMD noch völlig. Aber: Die 5x86 passten in viele 486-Mainboards, wobei aber manchmal ein Adaptersockel für die geänderte Spannungsversorgung nötig war. Die CPUs waren also für viele Nutzer ein attraktiver Upgrade-Pfad, um die einst teuren 486-PCs länger zu nutzen.

Die Durststrecke für AMD sollte aber erst beginnen, denn der 1996 vorgestellte superskalare K5 enttäuschte umso mehr. Er kam erst 1996 auf den Markt, also drei Jahre nach den Pentiums, die inzwischen stark weiterentwickelt worden waren. Die FPU des K5 war immer noch zu langsam, zudem war der wohl eilig entworfene Prozessor kompliziert herzustellen und anfangs recht knapp. Das P-Rating wollte kaum noch zum Takt passen, so hatte ein K5 mit dem Aufdruck "PR150" nur 105 MHz internen Takt. Kompatibel zu den aktuellen Intel-Sockeln waren die CPUs aber immer noch, nur eben langsam und heiß - "Heatsink and Fan" stand ebenfalls auf dem Blechdeckel.

All das muss auch AMD gewusst haben, sonst hätte man nicht schon 1996 die Firma NexGen gekauft, die über Achtungserfolge mit ihren eigenen Designs für x86-CPUs nicht hinaus gekommen war. Aber die Technik war gut, also konnte man sie in nur einem Jahr zum AMD K6 machen - da dürften vorher aber schon einige Gespräche gelaufen sein. Die Pipelines des K6 arbeiteten fixer, die FPU war konkurrenzfähig und MMX war auch integriert. Später kamen noch die eigenen Erweiterungen "3DNow" hinzu. Also brauchte man nur anfangs das P-Rating, mit dem K6-2 wurde es abgeschafft.

Größter Vorteil für die Anwender war aber, dass der K6 in Pentium-Sockel passte. Intels fast zeitgleich erschienener Pentium II brauchte völlig neue Motherboards für den "Slot 1". Diese damals oft als "Kassette" verschrienen, hochkant gesteckten Plastikgehäuse waren nötig, weil sich mit der aktuellen Fertigungstechnik von 350 Nanometern der neue L2-Cache nicht sinnvoll auf dem CPU-Die integrieren ließ. Also kamen die vier SRAMs daneben, und damit das noch im ATX-Formfaktor Platz findet, musste das Prozessormodul auf einer kleinen Platine eingesteckt werden.

Noch kurz vor Intel schaffte AMD die Integration des L2-Cache, also konnte auch der K6-III weiterhin für den Pentium-Sockel erscheinen. Der hatte jedoch für manche Boards zu viel Stromdurst und der nächste große Wurf stand schon bevor, sodass er nur von 1999 bis 2000 auf dem Markt war. Zudem, so war später zu hören, war die Ausbeute in der Fertigung durch das große Die konstant zu niedrig. Das war zwar alles ärgerlich, AMD hatte jedoch mit gutem Grund Vertrauen in sein nächstes Projekt, dessen Markenname seitdem genutzt wird.

Bedingt durch die Erfolge des K6 fühlte sich Jerry Sanders um die Jahrtausendwende besonders stark. Die "Fab 30" wurde 1999 in Dresden als eine der modernsten Chipfabriken der Welt eröffnet, und neben dem Team von NexGen hatte man bereits 1996 die Entwickler des ebenfalls gescheiterten Alpha-Prozessors von DEC übernommen. Sanders wollte Intel beim Design und bei der Fertigung lange Zeit besonders starke Konkurrenz machen [7]. Geklappt hat das aus eigenem Verschulden und wegen des Platzes der Dotcom-Blase anfangs nur teilweise.

Wie Ende der 1960er Jahre, als sich die Großen der Chipbranche formten, herrschte Ende der 1990er Jahre Euphorie in der Technikbranche. Das Internet war für die meisten Unternehmen und viele Privatleute unverzichtbar geworden, der Absatz von PCs für zuhause boomte, und beinahe täglich gab es neue Online-Anwendungen. Begleitet wurde das von einer Spekulationsblase um bestehende und junge Unternehmen, sogar neuen Börsen gab es - Stichwort: Neuer Markt. Die Erwartungen der Investoren waren jedoch drastisch zu hoch, sodass die Kurse ab März 2000 abstürzten. In der Folge ging die Nachfrage nach PCs und Servern stark zurück, selbst viele etablierte Unternehmen entgingen nur knapp der Pleite. Mittendrin, als Lieferant einer der wichtigsten Komponenten: AMD.

Von über 40 auf knapp 14 US-Dollar stürzte der Kurs der AMD-Aktie bis Ende 2000 ab, und das, wo doch ein Jahr zuvor der Athlon alles richten sollte. Dessen Design war zumindest auf dem Papier dem dann aktuellen Pentium-III überlegen, aber AMD konnte anfangs die Taktfrequenzen nicht schnell genug steigern. Zudem lief die Fertigung mit Kupfer-Interconnects alles andere als reibungslos. Da war der Ehrgeiz etwas zu groß, um Intel mit dem neuen Material zu überholen. Zudem setzte nun auch AMD mit dem Slot A eine neue Bauform ein, was ebenso neue Chipsätze und Mainboards nötig machte. Dafür konnten aber Lizenzzahlungen an Intel vermieden werden, denn das Busprotokoll des Athlon stammte noch aus dem Alpha-Design. Alles in allem war der Athlon eine komplett neue Plattform.

Trotz der Schwierigkeiten schaffte es AMD in nicht einmal einem Jahr, die Taktfrequenzen zu verdoppeln - heute undenkbar. Im Juni 1999 erschien der Athlon 500, im März 2000 der Athlon 1000. Die Ziffern gaben nun die echte Taktung an und Intel war ziemlich sauer, dass der Konkurrent das Gigahertz-Rennen gewinnen konnte. So sauer, dass man erstmals einen Prozessor nur für die Presse baute, der nie auf den Markt kam, weil er nicht zuverlässig war: Der Pentium III mit 1133 MHz lief bei einigen Testern stabil, bei anderen nicht. Prompt wurde er eingestampft.

Mit einem bisher nicht gesehenen Werbeaufwand führte Intel Ende 2000 den Pentium 4 mit neuer Netburst-Architektur rund um eine lange und daher takthungrige Pipeline ein und fortan tobte zwischen den beiden Unternehmen eine regelrechte Schlacht.

Fast im Monatsrhythmus erschienen neue Modelle mit etwas höherem Takt von beiden Herstelleren, was dann Preissenkungen beim jeweils anderen Anbieter nach sich zog. Teilweise wurden dabei auch mal die Kosten für ein Topmodell glatt halbiert.

AMD hielt gut mit, musste aber wegen Intels hoher Frequenzen das P-Rating wieder einführen und sorgte mit dem "Athlon XP" sogar dafür, dass man sich vielleicht fragen konnte, ob nicht vielleicht dieser Prozessor besser für das dann neue Windows XP wäre - alles Marketing. Aus heutiger Sicht war das die goldene Zeit für PC-Bastler, denn Auswahl und fallende Preise waren nie mehr so groß. Bisweilen hatten beide Hersteller mehr als 30 Varianten derselben Modellreihen im Angebot, Billigprodukte wie Celeron (Intel), Duron und Sempron (AMD) nicht mitgerechnet. Das Risiko, von Preissenkungen direkt nach dem Kauf überrascht zu werden, war aber auch nie mehr so groß.

Dieser Kampf zog sich bis 2003 hin, beide Unternehmen hielten an Athlon und Pentium 4 fest, wenn auch mit immer wieder überarbeiteten Versionen. Dann kam, im Wortsinne, der Hammer: AMD stellte den unter dem Codenamen "Hammer" entwickelten Athlon 64 vor. Mit dem verbindet den Autor dieses Textes eine besondere Beziehung, konnte er ihn doch am Rande der Computex 2002 in Taiwan als erster im Prototypenstadium testen, und zwar bei... naja, irgendein asiatisches Unternehmen wirds schon gewesen sein. Dank fleißiger Kollegen zuhause gab es eine Handvoll auf 800 MHz - schneller wollte dieser Hammer noch nicht - normierter Benchmarks, und es wurde klar: Takt für Takt kann AMDs neue Architektur den Pentium 4 schon bei bestehender Software schlagen, den Vorteil von 64-Bit-Kompilaten noch gar nicht eingerechnet.

Bei Intel herrschte Panik, und bei AMD auch, aber nur wegen des sehr frühen Tests. Man wollte vor Erscheinen die Ergebnisse nicht kommentieren, später gab es ein, sagen wir: intensives Gespräch zwischen zwei Redakteuren und vier AMD-Vertretern. Das bliebt aber auch durchaus höflich.

Intel versuchte damals angeblich händeringend, ein lauffähiges Hammer-System vor dem Marktstart in die eigenen Labors zu bekommen. Intel zitterte vor Hammer-Furcht: Man hatte sich ganz auf die Netburst-Architektur des Pentium 4 festgelegt, die bis zu 5 GHz erreichen sollte. Die Physik ließ aber auch hier nicht mit sich spaßen, und bei schon bei 3,8 GHz war Schluss, das war 2005.

Genau da bahnte sich der nächste Umbruch an: Prozessoren mit zwei Kernen gab es schon für Server, und nur um ein paar Wochen schlug Intel mit dem Pentium D (alias Extreme Edition 840) AMD mit dem ersten Athlon Dual-Core für Desktop-PCs.

Spötter übersetzten das Kürzel "EE" in den Preislisten als "Emergency Edition", um dem anhaltend gut skalierenden Hammer-Kern etwas entgegenzusetzen. Der erschien dann aber doch mit einem technischen Vorteil: Statt zwei Dies in einem Gehäuse war der Athlon 64 X2 ein echter Doppelkern aus einem "monolithischen" Stück Silizium. Weil der Pentium 4 immer noch höhere Takte hatte, nahm im Verlauf der nächsten Jahre das P-Rating endgültig bescheuerte Werte an: Ein Athlon X2 6400+ lief genau mit der Hälfte der suggerierten Frequenz.

Ab 2006 eilte Intel mit der neuen und viel sparsameren Core-Architektur mit zwei und vier Kernen davon und AMD brauchte bis Ende 2007, um den X2-Nachfolger namens "Phenom" mit ebenfalls bis zu vier Kernen vorzustellen.

Die Radeon HD 2600 XT erschien 2007 in Mustern noch mit ATI-Logo.

Die Radeon HD 2600 XT erschien 2007 in Mustern noch mit ATI-Logo.

(Bild: Nico Ernst)

Vorher musste man erst noch ATI kaufen, fortan war AMD auch vollwertiger Anbieter von Grafiklösungen. Also sollte mit der "Spider" genannten Plattform der erste PC nur mit AMD-Bausteinen vorgestellt werden, vorwiegend für Spieler: Prozessor, Chipsatz, Grafikkarte - alles aus einer Hand. Das liest sich schöner, als es war: Die Testrechner, die nur vor Ort und unter Aufsicht mit vorinstallierter Software geprüft werden durften, stürzten reihenweise ab. Das geplante Topmodell der CPUs sollte dann doch nicht auf den Markt kommen und in allen Phenoms lauerte ein Bug im Zwischenspeicher TLB. Später galt diese Veranstaltung in Warschau [8] AMD-intern als bestes Beispiel, wie man einen Markstart nicht macht.

Und mit der Performance des Phenom, der als K10-Architektur entwickelt wurde, war es auch nicht weit her, die Chips mussten so billig wie Intels Mittelklasse verkauft werden. Dass man im Jahr zuvor noch insgesamt 5,4 Milliarden US-Dollar für ATI hingeblättert hatte, machte es noch schlimmer.

Richtig lohnen wollte sich die Grafiksparte auch nicht, denn die erste Karte unter AMD-Label erschien als Radeon HD 2900XT ein halbes Jahr später als geplant und konnte Nvidias Topmodell nur beim Strombedarf überbieten. Technisch begann damit an allen Fronten für AMD wieder eine Durstrecke, die aber 2009 zumindest finanziell abgemildert wurde: Intel zahlte 1,25 Milliarden US-Dollar an den Konkurrenten, um einem Jury-Verfahren wegen Wettbewerbsbehinderung zu entgehen.

Bereits seit 1991 wurden die Geschäftspraktiken untersucht, zahlreiche Verfahren wurden eingeleitet, zumindest in den USA sind sie damit vom Tisch - inklusive Patentstreitigkeiten. Das im Rahmen der Einigung erneuerte Austauschabkommen [9]kann man in den Gerichtsunterlagen nur leicht geschwärzt seitdem einsehen. Davon unabhängig ist die Kartellstrafe der EU, die mit 1,45 Milliarden angedrohter Strafzahlung immer noch nicht abschließend entschieden ist. Ebenfalls 2009 wurde der Verkauf der Chipfertigung abgeschlossen, der bereits 2008 angestoßen worden war - auch das brachte Geld in die Kassen.

Das wiederum schafften die AMD-Produkte weiterhin nicht im nötigen Umfang, denn sie wurden auch mit der folgenden Bulldozer-Architektur nicht viel besser. Als der Bulldozer für die zunehmend erfolgreichen Opterons im Server-Geschäft auch für die Desktops als "FX" vorgestellt wurde, sagte dem Autor ein AMD-Mitarbeiter am Rande: "Was wollen die damit? Das ist eine Server-Architektur". Und so kam es auch: Zwar als Achtkerner beworben, hatten die FXe aber nur bis zu acht Integer-Einheiten - je zwei mussten sich eine FPU teilen. Und gerade die FPU wurde auch für Spiele und Mediensoftware immer wichtiger: Essig wars mit der Performance, Bulldozer-Chips musste AMD zu Billigpreisen verschleudern.

Man hätte AMD dann im Jahr 2011 fast schon abschreiben können, wäre da aus technischer Sicht nicht die Grafiksparte gewesen. Die lieferte 2012 mit der Serie Radeon HD 7000 ein rundes Paket und begann gleichzeitig, die CPU- und GPU-Kerne des Unternehmens in der Abteilung "Semi-Custom Unit" für Spielkonsolen zu entwickeln. Seit Playstation 4 und Xbox One stecken in allen Konsolen von Sony und Microsoft AMD-Chips, was wichtige Einnahmen bringt.

Nico Ernst

Das ATI-Maskottchen Ruby fand sich auf Grafikkarten, in Demos und als Sammelfigur.

(Bild: Nico Ernst)

Der Einfluss der Ex-ATI-Leute wurde erst in dieser Zeit im gesamten Unternehmen sichtbar. Zur Vorstellung der R200-Serie an Desktop-Grafikkarten wünschten die Grafikmarketeers sich sogar auf einer Präsentationsfolie "frecheres Marketing" - das war nicht nur an die Öffentlichkeit, sondern auch an die internen Kanäle gerichtet. Hot-Rod-Flammen auf den Referenzkarten, das eigene Maskottchen "Ruby" - von der laut Ex-Mitarbeitern sogar die weibliche Figur "Jane Nash" in 3DMark Vantage abgeleitet sein soll - alles Dinge, die AMD ohne ATI zuvor nicht machen wollte.

Die R9 295X2 war bisher die letzte Spiele-Dual-GPU - mit über 500 Watt und Wasserkühlung.

Die R9 295X2 war bisher die letzte Spiele-Dual-GPU - mit über 500 Watt und Wasserkühlung.

(Bild: Nico Ernst)

In jüngster Zeit werden Pressemuster schon mal mit beleuchteten Aufstellern oder persönlicher Gravur verschickt. Das soll weniger den Testern schmeicheln, sondern vielmehr durch die daraus entstehenden Fotos bei den potenziellen Kunden Begehrlichkeiten wecken. Und die Freiheit, über sechs Generationen von Radeon 3870 X2 bis 295 X2 die auch in der Entwicklung teuren Dual-GPU-Karten zu bauen hatte man nicht mal bei Nvidia. Seit der R200-Serie kann AMD aber bei den Grafikkarten nicht mehr mit Nvidias jeweils schnellster GPU konkurrieren, zumindest nicht im absoluten High-End. Das drückt die Preise.

Bei den PC-Prozessoren ist AMD aber die nächste große Architektur gelungen: Zen. Nachdem die Bulldozers noch über drei Generationen dahingeschleppt wurden, ist seit Mitte 2017 der Ryzen wieder ein Liebling der PC-Schrauber. Acht echte Kerne für weniger Geld als bei Intel, bei je nach Anwendung gleicher Leistung. Das erinnert stark an die Zeiten von Athlon und Athlon X2. Zudem konnte man dem von den Server-CPUs Epyc abgeleiteten Threadripper beim High-End-Desktop beziehungsweise günstigen Workstations sogar Intel einige Zeit die Performancekrone entreißen.

Besonders wichtig: AMD liefert nun wie versprochen pünktlich nach. Zen+ überzeugte 2018 mit höherer Leistung pro Takt (IPC), Zen 2 soll das 2019 noch einmal deutlich steigern. Während Intel gut ein Jahrzehnt lang erst sechs, dann acht Kerne für rund 1.000 US-Dollar verkaufte, bekommt man heute einen ganzen gut ausgestatteten PC mit Octa-Core fürs gleiche Geld. Das ist vor allem AMDs Verdienst, denn ohne ernsthafte Konkurrenz musste Intel sich preislich lange nicht bewegen - und tut das bis heute nicht, denn den ruinösen Preiskampf [10] will keiner der beiden mehr aufnehmen.

Mit Dr. Lisa Su scheint das Unternehmen auch eine CEO gefunden zu haben, die langfristig führen kann. Nach Jerry Sanders Weg in den Ruhestand 2002, mitten in den Turbulenzen nach dem Dotcom-Hype, musste sein Nachfolger Hector Ruiz die Firma übernehmen, den Sanders erst zwei Jahre zuvor als designierten Erben ins Unternehmen geholt hatte. Unter seiner Leitung wurde ATI gekauft und die Abspaltung der Fertigungsabteilung vorbereitet - aus den roten Zahlen kam AMD dabei aber immer nicht, weshalb Ruiz 2008 gehen musste.

Heutige Zentrale von AMD in Santa Clara - gegenüber von Intel am Highway 101.

Heutige Zentrale von AMD in Santa Clara – gegenüber von Intel am Highway 101.

(Bild: Nico Ernst)

Die finanzielle Sanierung gelang auch Dirk Meyer nicht, der seit 1996 bei AMD war, die Entwicklung des Athlon leitete und 2008 das Runder übernahm. Sein plötzliches Ausscheiden 2011 nach Streit mit dem Aufsichtsrat kann wie eine Entlassung gewertet werden. Wiederum nur drei Jahre, bis Ende 2014, war Rory Read AMD-Chef. Er hatte lange Management-Erfahrung bei IBM und Lenovo gesammelt und brachte die Firma wieder in die Gewinnzone. Kostensenkungen mit einem zehnprozentigen Personalabbau, aber auch die Gründung der Semi-Custom-Unit für Konsolenchips werden ihm angerechnet.

Seit Ende 2014 hat AMD nun in Person von Lisa Su seine erste Chefin. Die Ingenieurin war früher unter anderem bei IBM an der Entwicklung des SOI-Prozesses beteiligt, den später auch AMD einsetzte. Ihr erster Auftrag war, Strategien auch umzusetzen - im US-Geschäft heißt das Wort dafür "Execution". Wie sie das machte ließ sich auf einer Presseveranstaltung 2012 beobachten, als sie das Abendessen nutzte, um ein ausführliches Gespräch mit einem US-Journalisten zu führen. Su fragte immer wieder nach, machte sich Notizen. Der später befragte Kollege gab an, Su wollte vor allem seine Einschätzung zu Problemen mit den Produkten erfahren und habe den Dialog danach mit mehreren E-Mails fortgesetzt.

AMD

Sondermodell des Ryzen 2700X mit Autogramm von Lisa Su.

(Bild: AMD)

Auch AMD scheint viel Vertrauen in seine Chefin zu haben und feiert sie zum 50. Geburtstag der Firma gleich mit. Auf der Sonderausgabe des Ryzen 7 2700X zum Firmenjubiläum ist Lisa Sus Unterschrift eingelasert und den rebellischen Grafikjungs geschuldet ist eine Radeon VII nun in knallrot zu haben.

Weil AMD inzwischen wieder echte Fans hat, kann man sich gratis auch ein T-Shirt mit "AMD 50" dazu bestellen, zwei Spiele gibt es wie bei den Grafikkarten üblich noch dazu - wie auch zu etlichen anderen AMD-Produkten, wenn sie bis zum 8. Juni 2019 erworben werden. Wer nicht nur für gute Hardware, sondern auch guten Wettbewerb sorgt, macht sich eben auch nach Enttäuschungen schnell wieder Freunde.

[Update 1.5.2019 13:55 Uhr:]
Auch der Intel 80386 hatte, anders als der günstigere 386SX, einen 32 Bit breiten Datenbus. Von daher war AMDs Am386-DX40 hier nicht überlegen, aber durch den höheren Takt von 40 statt 33 MHz. Wir haben den Fehler auf Seite 4 korrigiert.
(nie [11])


URL dieses Artikels:
https://www.heise.de/-4410898

Links in diesem Artikel:
[1] https://www.heise.de/bilderstrecke/bilderstrecke_4408493.html?back=4410898;back=4410898
[2] https://www.heise.de/bilderstrecke/bilderstrecke_4408493.html?back=4410898;back=4410898
[3] https://www.heise.de/news/50-Jahre-Intel-Ein-persoenlicher-Rueckblick-auf-50-Jahre-grosse-Erfolge-und-grosse-Misserfolge-4111405.html
[4] https://www.amd.com/de/corporate/innovations
[5] https://de.wikipedia.org/wiki/Bit-Slice
[6] https://www.heise.de/news/20-Jahre-FDIV-Bug-Ein-Prozessor-Rechenfehler-macht-Geschichte-2438283.html
[7] https://www.heise.de/ct/artikel/Angriff-auf-die-Torte-287766.html
[8] https://www.heise.de/ct/artikel/Humpelstilzchen-291330.html
[9] https://www.sec.gov/Archives/edgar/data/2488/000119312509236705/dex102.htm
[10] https://www.heise.de/news/AMD-leidet-unter-Preiskrieg-bei-Prozessoren-54837.html
[11] mailto:nico.ernst@gmail.com