ATI-Grafikchips falten Proteine schneller

Die Stanford-Universität stellt ab heute die Beta-Version eines Clients zur Verfügung, der die Faltungssimulation von Proteinen mit ATI-Grafikchips beschleunigen kann.

In Pocket speichern vorlesen Druckansicht 151 Kommentare lesen
Lesezeit: 2 Min.
Von
  • Manfred Bertuch

Die Folding@home-Software der Stanford-Universität nutzt die ungenutzte Rechenzeit von PCs, um die räumliche Struktur von Aminosäureketten zu ermitteln. Die Beta-Version des neuen Clients für ATI-Grafikchips der X1900-Reihe ist dank der 48 parallelgeschalteten Pixel-Shader rund 20- bis 40-mal schneller als ein CPU-basierter Client. Ein X1900-Chip soll selbst die Cell-CPU der Playstation 3 noch um den Faktor 2 überflügeln und mit der speziell angepassten Folding-Software etwa 100 GFLOPS leisten. Wenn sich mindestens 10.000 PC-Besitzer an dem Projekt beteiligen, würde man in den Peta-FLOPS-Bereich vorstoßen und damit jeden existierenden Supercomputer übertreffen.

Der GPU-Client der Folding-Software wurde mit BrookGPU entwickelt, einem Compiler für die Brook-Stream-Programmiersprache, der den Zugriff auf die Recheneinheiten von Grafikchips vereinfacht. Zurzeit unterstützt der GPU-Client nur Grafikchips der X1900-Reihe. Später sollen sich auch X1800er-GPUs beteiligen können. Der Folding-Client setzt den Catalyst-6.10-Treiber voraus, der ebenfalls ab heute verfügbar sein soll. Die Leistungsaufnahme einer X1900-Grafikkarte soll während der Simulation rund 80 Watt betragen. Nicht-Spiele-Anwendungen wie Textverarbeitung und Surfen sind durch den Folding-Client nicht beeinträchtigt.

Die Art und Weise, wie Proteine durch Falten ihre endgĂĽltige Form annehmen, ist eine wichtiger SchlĂĽssel bei der Erforschung von Krankheiten wie Alzheimer, Parkinson, Huntington und verschiedene Arten von Krebserkrankungen. Leider ist es extrem schwierig, die Faltung komplexer Proteine zu berechnen. Um nur eine einzelne Nanosekunde eines Faltungsvorgangs zu simulieren, mĂĽsste ein PC einen ganzen Tag rechnen.

Der Stanford-Mitarbeiter Mike Houston betont, dass die Chips der X1800/X1900-Reihe ein gutes Speicherinterface besitzen und effizient mit einer großen Zahl von Threads umgehen können. Zudem enthalte die Simulationssoftware sehr viele Schleifen und Sprunganweisungen. Und nur die X1000-GPUs seien in der Lage, den Overhead der Sprunganweisungen mit mathematischen Berechnungen zu überdecken, während die Nvidia-Chips Sprung-, Textur- und ALU-Berechnungen nicht gleichzeitig durchführen könnten. Außerdem unterbrächen die Nvidia-GPUs die Berechnung nach 64.000 Instruktionen und könnten die komplexe Software aus mehreren Millionen Anweisungen pro "Pixel" und pro Iteration nicht in einem Pass ausführen. (Manfred Bertuch) / (anw)