zurück zum Artikel

Big-Data-Analysen mit GPU-Beschleunigung

Christof Windeck

Auf der Nvidia-Entwicklerkonferenz GTC zeigen IBM, das israelische Startup SQream, Map-D und andere Firmen, wie GPGPU-Computing die Analyse riesiger Datenmengen beschleunigt.

Auf der GPU Technology Conference (GTC [1]), die Grafikchip-Spezialist Nvidia seit gestern im Silicon Valley veranstaltet, ist auch Big Data ein wichtiges Thema. Mehrere Firmen arbeiten an Methoden, um die enorme Parallelrechenleistung von Grafikprozessoren wie der Nvidia Tesla [2] für große, verteilte Datenbanken anzuzapfen.

IBM gibt einen ersten Ausblick auf den Software-Stack für die gemeinsam mit Google, Mellanox, Nvidia und Samsung entwickelten OpenPOWER-Systeme [3]. Hier ist die Integration von CUDA bisher erst geplant. Der IBM-Entwickler Alon Shalev Housfater erklärt außerdem, was GPUs bei der Mustererkennung mit regulären Ausdrücken leisten (Regular Expression Pattern Matching).

Das israelische Startup SQream [4] kooperiert [5] ebenfalls mit IBM: Die auch auf der Code_n [6] auf der CeBIT 2014 vertretene Firma nutzt GPUs für eine schnelle Datenbank, die wiederum etwa der Telekommunikationsdienstleister Orange für die experimentelle Analyse von 4 Milliarden anonymisierten Verbindungsdatensätzen verwendet.

Die erst 2013 gegründete Firma Map-D [7] hat eine In-Memory-Datenbank entwickelt, die im Speicher der Grafikkarte läuft. Fuzzy Logix stellt ihre GPU-beschleunigte Version Tanay Rx [8] der Programmiersprache R [9] für statistische Analysen vor.

Nvidia selbst erläutert, wie GPUs zur Indizierung von Webseiten programmiert werden. Die DARPA entwickelt im Projekt XDATA [10] Verfahren zur schnellen Analyse und Visualisierung von Daten etwa aus der militärischen Aufklärung. Auf ähnliche Aufgaben zielt auch die Datenbank GAIA [11] von GIS Federal, die GPUs einbinden kann. Fusion-io [12] zeigt, wie man von der GPU aus auf schnelle PCIe-SSDs mit RDMA for GPUDirect [13] zugreift. (ciw [14])


URL dieses Artikels:
https://www.heise.de/-2154336

Links in diesem Artikel:
[1] http://www.gputechconf.com/page/home.html
[2] https://www.heise.de/news/Nachbrenner-fuer-Supercomputer-Nvidia-stellt-Tesla-K40-vor-2048493.html
[3] https://www.heise.de/news/Samsung-tritt-der-OpenPOWER-Foundation-bei-2112542.html
[4] http://www.sqreamtech.com/technology.asp
[5] http://www-304.ibm.com/partnerworld/gsd/solutiondetails.do?solution=49691&expand=true&lc=en
[6] https://www.heise.de/news/CODE-n-Data-Mining-Loesung-fuer-Einzelhaendler-gewinnt-den-Startup-Oskar-2141038.html
[7] http://www.map-d.com/
[8] http://www.fuzzyl.com/products/gpu-analytics/
[9] http://www.heise.de/ct/inhalt/2014/3/182/
[10] http://www.darpa.mil/Our_Work/I2O/Programs/XDATA.aspx
[11] http://gaia.gisfederal.com/
[12] https://www.heise.de/news/Fusion-io-veroeffentlicht-angeblich-APIs-fuer-Flash-Operationen-1923197.html
[13] http://docs.nvidia.com/cuda/gpudirect-rdma/index.html
[14] mailto:ciw@ct.de