IDF: Dreidimensionale Chips, viele, viele Kerne und menschlichere Software

Traditionell gibt die Keynote des letzten IDF-Tages einen visionären Blick in die nähere und fernere (Intel-)Zukunft.

In Pocket speichern vorlesen Druckansicht 89 Kommentare lesen
Lesezeit: 4 Min.
Von
  • Andreas Stiller

Traditionell gibt die Keynote des letzten IDF-Tages einen visionären Blick in die nähere und fernere Zukunft. Und den gab über viele Jahre hinweg der IDF-Initiator und Chief Technology Officer (CTO) Pat Gelsinger, der jetzt aber zum General Manager der Digital-Enterprise-Unternehmenssparte berufen wurde. Einen Nachfolger für ihn als Intel-CTO gibt es noch nicht und so übernahm Intel-Fellow Justin Rattner -- unter den gestrengen Augen seines Ex-Chefs -- die Vortrags-Aufgabe. Die von ihm verkündete Idee, aufeinanderliegende Wafer direkt miteinander zu verkoppeln (Wafer Stacking), ist zwar nicht ganz neu -- sie nimmt aber erst jetzt langsam Gestalt an. So lassen sich beispielsweise CPU und DRAM über Tausende, gar Millionen von Kontakten direkt miteinander verbinden, was ungeahnte Bandbreiten ermöglicht. Das Aufeinanderschichten fertiger Dice (Die Stacking) ist eine weitere Möglichkeit, die dritte Dimension auszunutzen. Die Stacking wird heutzutage schon bei einigen Flash-Bausteinen und Kombi-Chips für Handys verwendet. Doch diese Formen von Multichip-Packages (MCP) mit nebeneinander auf einem Substrat angeordneten oder übereinander mit Wire-Bonds verbundenen Chips lösen laut Rattner nicht das Problem, das extrem viel höhere I/O-Transferraten für effiziente Multikern-Architekturen nötig sind.

Rattner sieht vier, acht, sechzehn, hunderte, tausende von Kernen in einem Chip auf uns zukommen, die aber korrekt programmiert werden müssen, um effizient zu sein. Es sollen Compiler und Software-Architekturen her, die Domain-speficic Parallel Programming ermöglichen, also optimierte Code-Threads für die unterschiedlichen Core-Typen erzeugen (Intel nennt das Shangrila-Konzept). Anwendungen, die auch einen Bedarf dafür haben, konnte er auch benennen, etwa Telefongespräche simultan zu übersetzen oder große Bilddatenbestände intelligent zu durchsuchen ("Suche: Kind mit Hund"). Beides noch Zukunftsmusik -- funktionieren tut jedoch bereits ein Intel-Softwareprojekt namens "Superresolution", das Videos analysiert und in höhere Auflösung umrechnet. Mangels schneller Multicores geht das im Moment noch recht langsam - für Echtzeitanwendungen muss etwa tausendmal mehr Performance her. Wie eine kurze Demo zeigte, ist der Erfolg jedenfalls verblüffend.

Intel arbeitet also schon seit geraumer Zeit an Mehrkern-Prozessor-Konzepten, in denen auch Architektur-Details auftauchen, die Konkurrenten bereits nutzen oder angekündigt haben: So erinnert die Grafik mit dem internen Aufbau des Multicore-Chips stark an den von IBM, Sony und Toshiba entwickelten Cell, auch wenn bei diesem unterschiedliche Kern-Typen kooperieren. Und die direkte Die-zu-Die-Verkopplung von Prozessor und Speicher setzt voraus, dass der Speicher-Controller direkt im Prozessor sitzt -- so, wie es AMD bei den AMD64-Prozessoren macht. Mit den Fully-Buffered DIMMs hat Intel für Server bereits ein Eisen im Feuer, das einerseits die direktere Anbindung von sehr vielen RAM-Chips direkt an den Prozessor ermöglichen könnte und andererseits aber die Abhängigkeit des Speichercontrollers vom konkreten SDRAM-Typ (etwa DDR2 oder DDR3) lockert. Die Cell-Entwickler beispielsweise setzen auf Rambus-Techniken (XDR-DRAM), die ebenfalls potenziell leichter skalierbar sind als die herkömmlichen PC-DIMMs. In Bezug auf die Chip-zu-Chip-Kommunikation hat kürzlich auch Sun neue Details seiner schon länger in Entwicklung befindlichen Proximity-Technik bekannt gegeben. Und Intel selbst pflegt seine "Radio-on-Every-Chip"-Idee, auch wenn zuletzt weniger die Chip-zu-Chip-Kommunikation innerhalb eines Rechners gemeint war, sondern eher eine Art Multi-Wireless-Technik, die je nach verfügbarem Netz reibungslos zwischen WLAN, WiMAX, UWB oder Bluetooth umschaltet.

Zum Intel Developer Forum siehe auch:

(as/c't) / (ciw)