Mit doppelter Kraft

In einem sind sich AMD und Intel einig: Die Zukunft gehört den Doppel- oder Mehrkern-Prozessoren. Die Zeiten des Taktfrequenz-Wettrüstens sind vorbei, doch ihr volles Potenzial entfalten Multi-Core-Systeme erst mit passender Software.

vorlesen Druckansicht 33 Kommentare lesen
Lesezeit: 10 Min.
Inhaltsverzeichnis

Bis vor wenigen Monaten war Multiprozessortechnik nur etwas für Profi-Anwender oder Apple-Kunden: Sobald in einem x86-PC mehr als ein Prozessor steckte, hieß er Workstation oder Server. Solche Geräte waren nicht nur wesentlich teurer als gewöhnliche Heim- oder Bürorechner, sondern auch viel lauter und für Privatkunden kaum zu beschaffen. Diese Zeiten sind vorbei, denn mittlerweile haben Doppelkern-Prozessoren nicht nur in Desktop-PCs, sondern sogar bereits in Notebooks Einzug gehalten. Statt Gigahertz-Hype kommt jetzt der Kampf der Kerne.

Der Leistungsvergleich der Mehrkern-CPUs mit ihren einkernigen Vorfahren fällt dabei nicht immer zu Gunsten der Neulinge aus. Viele, vor allem ältere Anwendungen klammern sich ausschließlich an einen Kern. Dann bringen Multi-Cores zwar den potenziellen Vorteil, dass ihre freien Rechenwerke für weitere leistungshungrige Programme nutzbar bleiben, fallen im direkten Benchmark-Vergleich mit höher getakteten Single-Core-Prozessoren jedoch zurück. Bisher erreichen die Einkern-CPUs nämlich noch etwas höhere Taktfrequenzen als Dual-Cores, weil Letztere sonst kaum noch sicher zu kühlen wären.

Leistungsunterschiede in der Größenordnung weniger Prozent sind den meisten PC-Besitzern allerdings zu Recht egal. Die meisten neuen Rechner sind für die meisten interessanten Anwendungen schlichtweg schnell genug. Unsere jährliche Umfrage unter c't-Lesern zeigt ebenso wie die Analysen namhafter Marktforscher, dass immer weniger Käufer einen neuen PC wollen, weil sie mehr CPU-Rechenleistung brauchen, sondern es geht ihnen eher um Zusatzfunktionen oder einen (mobilen) Zweitrechner.

Mit schlichter Taktfrequenzsteigerung, jahrelang das Haupt-Argument für die PC-Neubeschaffung, lassen sich nur noch geringe Performancesteigerungen herausholen. Zusätzlich stößt man beim Hochschrauben der Taktfrequenz an physikalische Grenzen: Um bei sehr hohen Taktfrequenzen stabil zu arbeiten, benötigen die üblichen x86-Kerne vergleichsweise hohe Betriebsspannungen. Weil die Leistungsaufnahme aber ungefähr im quadratischen Verhältnis zur Kernspannung steigt, explodiert der Aufwand für die Kühlung geradezu. Zwar wollte Intel mit optimierten Fertigungsverfahren diesem Zusammenhang entgegenwirken, doch hat sich der Marktführer dabei offenbar drastisch verschätzt: Noch vor drei Jahren war geplant, den 90-Nanometer-Prescott-Kern auf 5 GHz zu peitschen, sein Nachfolger Tejas hätte 9 GHz erreichen sollen.

Das ist längst Schnee von vorgestern, jetzt soll die Mehrkern-Technik für eine Vervielfachung des PC-Leistungspotenzials sorgen. Viele praktische Benchmarks zeigen, dass tatsächlich hohe Skalierungsfaktoren erreichbar sind: Ein zweiter Kern kann auch ohne große Änderungen an der Systemarchitektur durchaus 80 Prozent mehr Anwendungs-Performance bringen. Um Vergleichbares durch eine Steigerung der Taktfrequenz zu bewerkstelligen, müsste man jene wohl verdreifachen - wie oben erläutert, ist das illusorisch.

Mit dem bloßen Hinzufügen weiterer Kerne ist es aber auch nicht getan, wenn tatsächlich parallele Höchstleistung gefragt ist: Schließlich wollen nun doppelt so viele Rechenwerke mit Daten und Energie gefüttert und sicher gekühlt werden. Die einzelnen Kerne der Multi-Cores müssen also sparsamer sein als im Einkern-Prozessor, der Kühlungsaufwand dürfte dennoch steigen. Schnellere Speicheranbindung und größere Caches optimieren den Fluss der Daten, der Umstieg von Bus-Systemen (PCI) auf geschaltete Punkt-zu-Punkt-Verbindungen (PCI Express) und Verfahren wie Native Command Queuing (NCQ) bei Festplatten helfen, die Peripherie-Zugriffe mehrerer paralleler Anwendungen voneinander zu entkoppeln.

Solche Maßnahmen verbessern die Systemperformance, wenn mehrere leistungshungrige Programme gleichzeitig laufen - damit empfiehlt sich die Multi-Core-Architektur vor allem für Server, wo sie ja auch herkommt. Im Desktop-PC-Bereich wächst zwar die Zahl der Szenarien, bei denen ebenfalls mehrere unabhängige Anwendungen laufen, doch häufiger geht es hier noch um einzelne Programme, denen Performance fehlt. Das hohe Leistungspotenzial der Mehrkern-Architektur lässt sich dann nur ausschöpfen, wenn die Software ihre Arbeit auf mehrere parallel laufende Threads verteilt. Das Angebot solcher Programme wächst, auch weil sich alle Hardware-Hersteller einig sind.

Die neue Multi-Core-Ideologie der Branche, vor allem der Marktelefanten Intel und Microsoft, aber etwa auch von AMD oder Apple, verbannt Single-Thread-Software in den Dino-Zoo. Der Trend zum Doppel ist auch schon bis zu den Grafikkarten geschwappt: SLi- und Crossfire-Systeme mit bis zu vier Grafikprozessoren treiben die 3D-Beschleunigung auf die Spitze. RAID-Systeme aus mehreren Festplatten und Zweikanal-Speicher runden das Bild der allgegenwärtigen Hardware-Redundanz ab.

Prozessor-Roadmaps (siehe Seite 134) zeigen an der Leistungsspitze jetzt nur noch Mehrkern-Chips: 2007 sollen die ersten Quad-Cores erscheinen, Achtfach-Prozessoren könnten bereits im Jahr darauf zu haben sein. Für Server gibt es solche CPUs sogar schon: Der unter dem Codenamen Niagara von Sun entwickelte UltraSPARC T1 enthält acht Rechenwerke, die jeweils vier Threads gleichzeitig verarbeiten können. Intel hat öffentlich verkündet, in einigen Jahren Prozessoren mit dutzenden oder gar hunderten von Kernen bauen zu wollen.

Bei extremen Vielkern-Prozessoren sind nicht mehr zwangsläufig alle Einzelkerne identisch; schon jetzt denken AMD und Intel darüber nach, Rechenwerke in Form separater Kerne anzubinden, die auf bestimmte Aufgaben spezialisiert sind. AMD plant zunächst eine externe Lösung und hat einen HyperTransport-Anschluss für die Serverprozessoren der Opteron-Familie erwähnt, an dem beispielsweise Krypto-Koprozessoren auch von Fremdanbietern andocken könnten. Und Intel hat gezeigt, dass man aufwendige Bildverbesserungsalgorithmen oder Zugriffsmuster-Analysefunktionen zur Detektion von Netzwerk-Schadroutinen in spezialisierte Siliziumkerne gießen könnte.

Konkrete Umsetzungen solcher Ideen sind noch unbekannt, aber eine Grundtendenz ist sichtbar: Statt der Leistung des Einzelkerns wird künftig beim CPU-Vergleich der Mix aus Performance und Funktionsumfang im Vordergrund stehen. Auch das ist ein Grund dafür, weshalb Intel seit eineinhalb Jahren seine Plattform-Kompetenz so deutlich betont: Es geht immer mehr um spezialisierte Geräte für bestimmte Aufgaben, die zwar noch ein paar x86-(64-)kompatible Kerne enthalten, aber ansonsten eher geschlossene, nur noch in engen Grenzen erweiterbare Systeme darstellen. Die klobigen, grauen Tower-Kisten, die sich (manchmal mehr schlecht als recht) an vielfältige Aufgabenstellungen anpassen lassen, dürften allmählich von anderen Formfaktoren verdrängt werden: ein Wohnzimmer-PC im HiFi-Baustein-Kleid als zentrales Medienarchiv, ein ultrakompakter Schreibknecht im Arbeitszimmer, ein Notebook für Beruf oder Ausbildung, portable Medien-Player oder „intelligente Displays“ mit Netzwerkanschluss zur Medienwiedergabe. Die 3D-Gaming-Maschine im Jugendzimmer dürfte dabei noch am nächsten an den heutigen PC-Gehäuseformen bleiben, schon allein wegen des Kühlluftbedarfs - vielleicht wird aber auch diese Geräteklasse von Spielkonsolen verdrängt.

Besonders schnell dürfte diese Reise vom klassischen Allround-PC zur „Appliance“ für bestimmte Zwecke nicht verlaufen, weil die Software-Entwicklung der rasanten Hardware-Evolution weit hinterherhinkt. Obwohl beispielsweise Hyper-Threading-Prozessoren mit einem zweiten virtuellen Prozessor seit nunmehr vier Jahren für Workstations und seit mehr als drei Jahren auch für Desktop-Systeme zu haben sind, ist die Unterstützung mehrerer Threads immer noch keine Standardeigenschaft aktueller Anwendungen. Immerhin wächst das Angebot kräftig - siehe auch Seite 130. Möglicherweise wird Windows Vista im Herbst dem Multi-Threading einen Schub geben, jedenfalls soll der Nachfolger des dann fünf Jahre alten Windows XP die Unterstützung für Mehrkern-Prozessoren verbessern.

Bisher sind Mehrkern- und Multiprozessor-Systeme im PC-Bestand noch selten, aber immerhin waren sowohl der letzte Aldi-PC als auch der „Deutschland PC VI“ von Fujitsu Siemens mit Doppelkernen von Intel beziehungsweise AMD bestückt. Und laut unserer Umfrage zum Jahreswechsel wünschen sich rund 28 Prozent der Kaufinteressenten unter den befragten c't-Lesern einen Dual-Core-Prozessor.

An der c't-Hotline treffen bisher nur sehr wenige Leserfragen ein, die auf Probleme mit Doppelkern-Prozessoren hindeuten. Das ist zwar keine repräsentative Erkenntnis, spricht aber für einen gewissen Reifegrad der Technik. Einige Bugs sind aber durchaus schon bekannt - mit BIOS-, Treiber- und Betriebssystem-Updates muss man deshalb leben. Was aktuelle Dual-Core-PCs leisten, zeigt der Test ab Seite 118. Er macht beispielsweise deutlich, wie gut Prozessorhersteller die Leistungsaufnahme der Abermillionen Transistoren in den Griff bekommen haben. Bei den Desktop-PC-Prozessoren ist diesbezüglich AMD führend. Der preiswerte Pentium D macht immerhin im Vergleich zum stromdurstigen Pentium 4 eine gute Figur. Die Qualität von Intels Notebook-Prozessoren im Desktop-Einsatz zeigen die neuen Apple-Rechner mit Core Duo (siehe S. 82).

Sowohl bei AMD als auch bei Intel sind im Laufe des Jahres größere Änderungen der Technik geplant; so will auch AMD nun auf DDR2-Speicher umsteigen. In der zweiten Jahreshälfte steht bei Intel nichts weniger als eine neue CPU-Architektur auf dem Programm. Die Zeit der Stromfresser soll dann vorbei sein.

Die „Featureitis“ wird aber weiter grassieren, beispielsweise in Bezug auf Virtualisierungsfunktionen. Noch ist nicht absehbar, ab wann auch technische Laien auf einen virtuellen Arbeitsplatzrechner umsteigen können, der sich als gewohnte Umgebung auf einem USB-Stick bequem mitnehmen und daheim, im Büro, auf dem Notebook oder im Internet-Café nutzen lässt. Damit wäre dann eine Virtualisierung der erwähnten Appliances erreicht: jeweils separate virtuelle Maschinen für Internet-Zugriff, geschäftliche Anwendungen, Musik- und Videogenuss und 3D-Spiele. Noch fehlen viele Schnittstellen zur Realisierung dieser Vision, etwa für 3D-Grafik oder Mehrkanal-Sound, doch daran arbeiten die Virtualisierungs-Vordenker schon.

Wenn es soweit ist, lassen sich auch Mehrkern-Systeme leicht auslasten - endlich wieder ein Grund, sich auf schnellere Rechner zu freuen.

"Das bringt Dual Core"
Weitere Artikel zum Thema "Dual Core" finden Sie in der c't 4/2006:
Dual-Core-Technik nimmt Fahrt auf S. 118
10 Doppelkern-PCs im Test S. 120
Wie Anwendungen von zwei Kernen profitieren S. 132
Neuheiten-Fahrplan fĂĽr 2006 S. 136

(ciw)