GRĂ–SSTRECHNER

Die scheinbar mächtigen Supercomputer sind nicht mächtig. Die meisten computergerecht formulierbaren Probleme wären trivial angesichts der Leistungsfähigkeit einer Maschine, wie Danny Hillis sie erträumt hat.

vorlesen Druckansicht
Lesezeit: 3 Min.
Von
  • Peter Glaser

IBM will seine Kapazitäten im Tiefrechnen weltweit ausbauen ("Deep Computing Capacity”). Anders ausgedrückt: Wenn man gelegentlich so richtig aus dem Vollen schöpfen möchte, kann man bei der Firma Rechenleistung auf Abruf mieten.

Auf der Liste der 500 schnellsten Supercomputer der Welt sind inzwischen auch vier der zehn schnellsten Anlagen von IBM. Die Spitzenposition hält seit drei Jahren IBMs "BlueGene/L" im kalifornischen Lawrence Livermore National Laboratory. Der "Earth Simulator" von NEC im japanischen Yokohama, der die Liste fünf Jahre lang anführte, liegt nur noch auf Platz 10. Big Blue hat nun bei Supercomputern einen Marktanteil von 48,6 Prozent errreicht.

Drei der rechenstärksten Maschinen unter den Top 10 stehen in Atomforschungszentren: neben dem BlueGene/L in Livermore ein Schwestersystem im Forschungszentrum Jülich sowie ein Tera-10 Supercomputer der französischen Atomenergiebehörde. Was an die achtziger Jahre erinnert, als Danny Hillis, damals Chef der Firma Thinking Machine, eine Vision hatte.

In der von seiner Firma gebauten Connection Machine führte die Zusammenarbeit einiger zehntausend CPUs zu einer damals atemberaubenden Rechenleistung. Hillis wußte, dass es - nach dem Lego-Prinzip - technisch machbar wäre, eine tausendmal größere Connection Machine zu bauen, wuchtig wie ein Haus. Auch ENIAC, der erste Röhrenrechner von 1946, hatte eine Grundfläche von 140 Quadratmetern.

Hillis - heute Entertainment-Consultant - wollte Datenkraftwerke bauen, die am Rand jeder Stadt stehen und die Leute mit Rechenpower versorgen sollten. Die Idee war heikel, unter anderem, weil neue Kraftwerke zu der Zeit gern mit Atomkraftwerken assoziiert und ĂĽberhaupt nicht gut gefunden wurden. Auch Sicherheitsbedenken regten sich angesichts der Vorstellung solcher zentralistischer Datenmolochs.

Heute hat sich mit dem Internet ein dezentrales Modell durchgesetzt. Fast wöchentlich werden schwere Datenpannen aus Unternehmen und Institutionen gemeldet (die sonderbar fühllos bleiben). Die mächtige Rechenleistung von Supercomputern und Deep Computing erregt keine Skepsis mehr, außer vielleicht, wenn es um Data Mining geht und Kundendaten oder private und geschäftliche Kommunikation von Großunternehmen oder Sicherheitsbehörden nach Menschen & Mustern durchsucht werden.

Die scheinbar mächtigen Maschinen sind nicht mächtig. Ihrer Verheißung entschleiert, sind sie nicht viel mehr als die digitale Version eines Fachidioten. Das eigentliche Problem sind die Probleme. Die meisten computergerecht formulierbaren Probleme wären trivial angesichts der Leistungsfähigkeit einer Maschine, wie Hillis sie erträumt hat. Man könnte mit Urknallsimulationen spielen und wäre immer noch beschämt über die brachliegenden Ressourcen.

Die Supermaschinen aber können, im quantitativen Sinn, nicht viel. Ein Supercomputer kann nichtmal Brötchen holen gehen. Ehe die Etats für die Entwicklung der jeweils nächstleistungsfähigeren Größtrechnergeneration vergeben werden, gibt es meist einen lustigen Wettbewerb (“Grand Challenge”), in dem von einer solchen Maschine berechenbare Dinge vorgeschlagen werden, etwa die Kollision zweier Spiralnebel oder Klimamodelle, die sich zwar “verfeinern” lassen, die aber nichts an der prinzipiellen Unvorhersagbarkeit künftiger Ereignisse ändert.

Man kann aber nicht vor eine solche Maschine treten und sie nach der Antwort auf die Frage nach dem Leben, dem Universum und dem Rest suchen lassen ("Sie wird euch nicht gefallen"). Es wird - das wäre eine plausible Prognose - also in Zukunft ein neues Berufsbild geben müssen: den Problemdesigner. (wst)