In-Memory Data Grid: Hazelcast 3.7 ist schneller und modular

Die neue modulare Architektur ermöglicht offenbar einen schnellen Zugang zu Updates, neuen Funktionsmerkmalen sowie Programmiersprachen-Clients und führt zu zügigeren Fehlerbeseitigungen.

In Pocket speichern vorlesen Druckansicht
In-Memory Data Grid: Hazelcast 3.7 ist schneller und modular
Lesezeit: 2 Min.
Von
  • Alexander Neumann

Hazelcast hat die Version 3.7 des gleichnamigen In-Memory Data Grid veröffentlicht. Das neue Release soll sich rund 30 Prozent schneller als die Vorgängerversion verhalten. Hazelcast 3.7 verdankt die erneut höhere Geschwindigkeit einer überarbeiteten Netzwerkschicht zur Verbesserung der Parallelität.

Das Diagramm zeigt die Leistungsverbesserungen in Version 3.7 (die Angaben beziehen sich auf einen Cluster mit vier Knoten, gemessen in einem 1 GBit/s schnellen Netz).

(Bild: Hazelcast)

Bei Hazelcast 3.7 handelt es sich um die erste vollständig modularisierte Version des Systems, was bedeutet, dass Client beziehungsweise unterstützte Sprache sowie Plug-ins nun als eigenständige Module vorliegen. Mit der neuen modularen Architektur stehen 29 Module bereit. Das soll es der eigenen Community einfacher machen, die entsprechende Unterstützung in der bevorzugten Sprache bereitzustellen oder ein fehlendes Feature hinzuzufügen. Entsprechende Module werden über das Hazelcast Enhancement Proposals Program eingereicht.

Mit der Freigabe des neuen Releases lässt sich Hazelcast in mittlerweile neun Cloud-Umgebungen betreiben und ist über Cloud-Discovery-Plug-ins auf weitere Umgebungen erweiterbar. Für PaaS-Implementierungen (Platform as a Service) steht Hazelcast jetzt als Service unter Cloud Foundry und OpenShift zur Verfügung. Darüber hinaus umfasst das In-Memory Data Grid Container-Deployment-Optionen für Docker.

Zur Unterstützung einer höheren Verfügbarkeit bieten AWS und Azure Verfügbarkeitszonen an. In Version 3.7 lässt sich daher einer Partition Strategy das Merkmal ZONE_AWARE zuweisen. Damit kann ein einzelner Cluster in mehreren Verfügbarkeitszonen ausgeführt werden, wobei die Backups in separaten Zonen für Primärdaten vorgehalten werden. Sollte eine komplette Verfügbarkeitszone verloren gehen, läuft der Cluster dennoch weiter.

In Hazelcast konnte man schon früh eine sogenannte Eviction Policy aus dem LRU- oder LFU-Cache setzen. Die neue Version 3.7 stellt nun eine individuelle Eviction Policy für Map- und JCache-Implementierungen zur Verfügung.

Eine weitere Überarbeitung betrifft die Einführung des Apache Spark Connector. Das Big-Data-Framework kann mit dem Plug-in und der Spark RDD API Hazelcast Maps und Caches als freigegebene RDD-Caches nutzen. Sowohl Java- als auch Scala-APIs von Spark werden unterstützt.

Darüber hinaus wird mit Version 3.7 der DurableExecutorService eingeführt. Er macht den für verteilte Verarbeitung offenbar oft genutzten Hazelcast ExecutorService fehlertolerant. (ane)