Die Verknüpfung von Data Analytics und Supercomputing

Die jüngsten Hacker-Angriffe auf Telekom-Router in ganz Deutschland haben erneut eine Debatte über neue Standards in der Cybersicherheit ausgelöst. Selbst wenn der ganz große Schaden ausblieb, stellt sich die Frage, wie sich derartige Angriffe früher erkennen lassen. Hier können High Performance Data Analytics eine Lösung sein.

In Pocket speichern vorlesen Druckansicht
Die Verknüpfung von Data Analytics und Supercomputing
Lesezeit: 13 Min.
Von
  • Dominik Ulmer
Inhaltsverzeichnis

Fest steht, dass der Faktor Zeit entscheidend ist. Bei der Telekom wie auch in vielen anderen Fällen sind Daten innerhalb kürzester Zeit oder sogar in Echtzeit zu verarbeiten und zu analysieren, um überhaupt richtungweisende Entscheidungen treffen beziehungsweise Zusammenhänge erkennen zu können. In diesen Fällen wird Big Data zu Fast Data und braucht Infrastrukturen, die Datenberge schnell verständlich machen und in einer skalierbaren Umgebung erfolgreich anwendbar sind. Ein Cloud-Angebot reicht hier oft nicht mehr aus, denn schnelle Einblicke benötigen entsprechend große Rechenleistung. Sind dann noch geringe Latenzzeiten nötig, verschmilzt Big Data mit Supercomputing. Experten sprechen hier von High Performance Data Analytics (HPDA) oder von der Konvergenz von Big Data und Supercomputing.

In Branchenkreisen ist diese Konvergenz seit circa 2011 ein Thema. Das hängt mit der Entwicklung des weltweiten Datenaufkommens und der Tatsache zusammen, dass herkömmliche Techniken bei bestimmten Algorithmen schlicht an ihre Grenzen gestoßen sind. Folglich kam die Frage auf, ob sich Supercomputing-Techniken nicht auf den Data-Analytics-Bereich übertragen lassen. Seither finden regelmäßig Vorträge zum Thema statt, seit 2014 tauschen sich Experten darüber auch auf der Technologie-Plattform Big Data Value Association aus, welche die Europäische Kommission bei der Umsetzung technischer Projekte mit Ausschreibungen und Konzepten unterstützt. Mittlerweile existieren die ersten greifbaren Anwendungen, etwa für den Bereich Deep Learning beziehungsweise Machine Learning.

Letzteres hat in den letzten 18 bis 24 Monaten deutlich an Bedeutung gewonnen, was unter anderem auf die Beschäftigung mit breit angelegten kommerziellen Anwendungen wie Spracherkennung, selbstfahrenden Autos und neuronalen Netzen zurückzuführen ist. Erst jetzt können die großen Mengen an Daten überhaupt zusammenfließen, die etwa für das Training eines neuronalen Netzes nötig sind.

Im Grunde verändert Big Data die Art und Weise, wie Supercomputer genutzt werden, und Supercomputer wiederum beeinflussen den Umgang mit Big Data. Sei es nun bei der Analyse von Baseballspielen, Wetter- und Klimamodellierungen mithilfe von IoT-Sensordaten oder auch der Analyse von Social-Media-Daten zu einem bestimmten Thema.