Big-Data-Analysen mit GPU-Beschleunigung

Auf der Nvidia-Entwicklerkonferenz GTC zeigen IBM, das israelische Startup SQream, Map-D und andere Firmen, wie GPGPU-Computing die Analyse riesiger Datenmengen beschleunigt.

In Pocket speichern vorlesen Druckansicht 15 Kommentare lesen
Lesezeit: 2 Min.

Auf der GPU Technology Conference (GTC), die Grafikchip-Spezialist Nvidia seit gestern im Silicon Valley veranstaltet, ist auch Big Data ein wichtiges Thema. Mehrere Firmen arbeiten an Methoden, um die enorme Parallelrechenleistung von Grafikprozessoren wie der Nvidia Tesla für große, verteilte Datenbanken anzuzapfen.

IBM gibt einen ersten Ausblick auf den Software-Stack für die gemeinsam mit Google, Mellanox, Nvidia und Samsung entwickelten OpenPOWER-Systeme. Hier ist die Integration von CUDA bisher erst geplant. Der IBM-Entwickler Alon Shalev Housfater erklärt außerdem, was GPUs bei der Mustererkennung mit regulären Ausdrücken leisten (Regular Expression Pattern Matching).

Das israelische Startup SQream kooperiert ebenfalls mit IBM: Die auch auf der Code_n auf der CeBIT 2014 vertretene Firma nutzt GPUs für eine schnelle Datenbank, die wiederum etwa der Telekommunikationsdienstleister Orange für die experimentelle Analyse von 4 Milliarden anonymisierten Verbindungsdatensätzen verwendet.

Die erst 2013 gegründete Firma Map-D hat eine In-Memory-Datenbank entwickelt, die im Speicher der Grafikkarte läuft. Fuzzy Logix stellt ihre GPU-beschleunigte Version Tanay Rx der Programmiersprache R für statistische Analysen vor.

Nvidia selbst erläutert, wie GPUs zur Indizierung von Webseiten programmiert werden. Die DARPA entwickelt im Projekt XDATA Verfahren zur schnellen Analyse und Visualisierung von Daten etwa aus der militärischen Aufklärung. Auf ähnliche Aufgaben zielt auch die Datenbank GAIA von GIS Federal, die GPUs einbinden kann. Fusion-io zeigt, wie man von der GPU aus auf schnelle PCIe-SSDs mit RDMA for GPUDirect zugreift. (ciw)