Intels Technologiechef verspricht neue Messlatte für Multicore-Prozessoren

Klassische Benchmark-Software ist für den Test hochparalleler Prozessoren ungeeignet, behauptet Intels Cheftechnologe Justin Rattner. Auf dem Chip-Kongress HotChips führte er vor, welche Anwendungen mit "Many-Core-Systemen" künftig möglich sein solle.

In Pocket speichern vorlesen Druckansicht 112 Kommentare lesen
Lesezeit: 4 Min.
Von
  • Erich Bonnert

Bis Ende des Jahres will Intel fast nur noch doppelkernige Chips liefern. Auch den Bau von 4-Kern-Prozessoren zieht der Chipriese um rund ein halbes Jahr vor, auf das vierte Quartal 2006. Für bestehende Programme stehe der wachsenden Komplexität der Chips allerdings kein adäquater Leistungsgewinn entgegen, meint man in dem Unternehmen. In Zukunft wolle man sich aber verstärkt neuartigen Anwendungen widmen, um die Kapazität der zahlreicher werdenden Cores pro Chip effektiv zu nutzen.

[Klicken für vergrößerte Ansicht]

Intels Cheftechnologe Justin Rattner identifizierte in einem Vortrag auf dem Chip-Kongress HotChips an der Stanford-Universität drei Hauptbereiche für Rechner mit vier oder mehr parallelen Recheneinheiten: Sprach- und Bilderkennung, Data Mining und Computersynthese. Er führte jeweils Beispiele auf einem Clovertown-System mit vier Kernen vor, das gegen Ende des Jahre auf den Markt kommt. Für die Erkennung gesprochener Worte kombiniert Intels Anwendung die akustische Analyse mit dem Lippenlesen per Videokamera. Das "lip tracking" allein sei schon fast so gut wie die Spracherkennung – beide zusammen jedoch verbesserten die Ergebnisse drastisch, versicherte Rattner.

Zum Nachweis der Tauglichkeit von Multicore-Rechnern für die Suche unstrukturierter Daten hat Intel eine Bildsuchanwendung programmiert. Einen Index über 10.000 Digitalfotos zu erstellen, dauert immerhin rund 20 Stunden. Danach allerdings lassen sich bestimmte Aufnahmen mit simplen Suchanweisungen innerhalb von Sekunden ausfiltern, denn das Programm katalogisiert die Bilder nach signifikanten inhaltlichen Merkmalen. Bei der Demonstration diente ein Musterbild als Suchkriterium – den Schnappschuss, Bild eines springenden Delphins mit ähnlich wasserblauem Hintergrund, galt es zu finden.

[Klicken für vergrößerte Ansicht]

Seine Synthesefähigkeiten stellte der Mehrkerner beim Raytracing von 3D-Objekten unter Beweis. Von vier Kameras gefilmte, sich bewegende Menschen werden dabei vom Rechner auf dem Bildschirm als 3D-Dummys dargestellt, unter Berücksichtigung aller Detailbewegungen, Spiegelungen und dynamisch geänderten Lichtverhältnisse. Fotorealistische Oberflächen sind dabei offenbar noch nicht möglich – auch waren noch leichte Verzögerungen beim Rendering zu beobachten. Für CAD-Designer beispielsweise sei die Mächtigkeit der Systeme bereits ausreichend, glaubt man bei Intel. Rattner versprach zudem "in Kürze" auch Echtzeitfähigkeiten, die beispielsweise Spieledesigner entzücken würden.

All diese Anwendungen sind Teil einer Benchmark-Suite für Multicore-Systeme, deren Palette von dynamischen Flüssigkeitsberechnungen über Crashtest-Simulationen bis zur Extraktion von Highlights aus einem Sportvideo reicht. Teile davon, wie etwa die vorgeführten Anwendungen, stammen aus Intels eigener Programmierung. Andere jedoch sind Fremdbeiträge, für die der Chiphersteller keine Publikationsrechte hat. Intel hat dazu vor einigen Monaten gemeinsam mit der Informatik-Fakultät der Princeton-Universität ein Entwicklungsprogramm mit dem Ziel einer möglichst umfassenden Benchmark-Sammlung angestoßen. Alle Programme sollen veröffentlicht und in einem Repository in Princeton zugänglich gemacht werden. Inzwischen sind zehn Top-Wissenschaftler von sechs der namhaftesten US-Universitäten beteiligt. Rattner hofft nun auch auf zahlreiche weitere Beiträge aus den Reihen der Hardware-Entwickler, um die Fähigkeiten künftiger Multicore-Maschinen zu messen.

Die Programmierung von hochparallelen Systemen bereitet Intel noch einiges Kopfzerbrechen, gestand der Intel-CTO ein. Teilweise müssten die Sprachen noch erweitert oder verbessert werden. Auch beim Compilerbau bestehe Optimierungsbedarf. Damit müsste eine Anwendungspalette vom Videospiel bis zur Finanzsimulation unterstützt werden. Rattner erläuterte, dass ohne architektonische Verbesserungen die Systemskalierung für komplexe Finanzprogramme nur relativ bescheidene Beschleunigungen erwarten lasse. Ab 16 Prozessoren würde der Systemdurchsatz mit wachsender Parallelisierung sogar wieder sinken. Hardware und Algorithmen müssten daher aufeinander abgestimmt, neue Instruktionen und Sprachkonstrukte in die Programmierung eingeführt werden. Rattner verspricht sich die besten Erfolge von besserer Thread-Unterstützung durch angepasste Pipelines sowie durch neue Cache-Konstruktionen. (Erich Bonnert) / (anw)