Der nächste große Wurf: Exascale-Computing

  • Beitrag vom 07.11.2019

Big Data schafft in Kombination mit HPC neue Anwendungsfälle. Diese benötigen Unmengen an Daten und eine Datenverarbeitungsinfrastruktur. Eine Lösung: Exascale.

Exascale-Computing bezeichnet Rechensysteme, die mindestens ein exaFLOPS also eine Milliarde Milliarden Gleitkommazahl-Operationen pro Sekunde leisten können. Regierungen und Unternehmen auf der ganzen Welt investieren in die Schaffung eines Exascale-Ökosystems. So zielt beispielsweise das US-Energieministeriums darauf ab, bis 2021 schnelles Exascale-Computing zu realisieren. Intel und das U.S. Department of Energy (DOE) werden den ersten Supercomputer mit einer Leistung von einem exaFLOP in den USA betreiben. Das System, das am Argonne National Laboratory des DOE in Chicago unter dem Namen „Aurora“ entwickelt wird, wird genutzt, um die wissenschaftliche Forschung und Entdeckung entscheidend voranzutreiben. Von China wird erwartet, dass es bis 2020 in den Exascale-Bereich vordringen wird. Die EU und Japan werden dafür nicht viel länger brauchen.

Warum ist Exascale so wichtig?

Weil die Datenmengen, die Unternehmen und Analysten zur Verfügung stehen, stark zunehmen. Daten können strukturiert, unstrukturiert oder teilstrukturiert sein. Big Data ist typischerweise durch die „3Vs“ charakterisiert: Volume, Variety und Velocity (Volumen, Vielfältigkeit und Geschwindigkeit). Bis 2025 werden laut den Prognosen der Experten 163 Zettabytes (ZB) an Daten erzeugt und repliziert, wobei ein Großteil davon durch das Internet der Dinge (IoT) verursacht werden wird.

In diesen Daten sind Erkenntnisse verborgen, die Betrug unterbinden können, bevor die Kreditkarte eines Kunden davon betroffen ist, Terroristen stoppen können, bevor sie zuschlagen, Patienten diagnostizieren können, bevor sie die Arztpraxis verlassen, oder ein Versicherungsangebot erstellen können, bevor der Kunde das Telefongespräch beendet. Diese Art von Erkenntnissen benötigt Unmengen an Daten und eine Datenverarbeitungsinfrastruktur, die diese Daten schnell verarbeiten kann. Exascale-Systeme brauchen nicht nur neue Prozessoren und Beschleuniger, sondern auch neue Storage-Techniken und Software.