Was Edge Computing leisten kann

  • Beitrag vom 26.06.2019

Das Internet of Things wächst rasant: 50 Milliarden Dinge werden bis zum Jahr 2022 mit dem Internet verbunden sein, schätzen Analysten von Juniper Research. Und diese vernetzten Maschinen, Geräte und Sensoren erzeugen einen wachsenden Strom von Daten, die verarbeitet werden müssen. Maschinen wie Industrieroboter müssen zudem in der Lage sein, Steuerbefehle in Echtzeit auszuführen. Damit stehen IT-Abteilungen in Unternehmen vor einer beträchtlichen Herausforderung, denn Echtzeitdatenverarbeitung erfordert hoch performante Systeme und hohe Übertragungsraten.

Latenzen erschweren Echtzeitverarbeitung

Zentrale Rechenzentren sind hierfür kaum geeignet, weil die Latenzzeit mit jedem Kilometer Übertragungsstrecke steigt. Um Verzögerungen auf ein Minimum zu reduzieren, gilt es, Daten dort zu verarbeiten, wo sie entstehen – also an den Rändern (engl. Edge) eines Netzwerks, wie etwa einer Fabrikhalle. Für Industrieroboter, die mit Sensoren und Kameras ausgerüstet sind und mithilfe Künstlicher Intelligenz (KI) gesteuert werden, ist Edge Computing die beste Wahl. Denn wenn Industrie-Roboter von KI-Algorithmen gesteuert werden, sind extrem leistungsfähige Rechenkapazitäten gefragt, die in Echtzeit reagieren müssen. Ein Szenario, für das sich Cloud-Ressourcen aufgrund von Latenzen nicht eignen.

Gleiches gilt für vernetzte Fahrzeuge, die beispielsweise auf Hindernisse verzögerungsfrei reagieren müssen. Sie lassen sich über eine zentrale Cloud schlecht managen – denn auch kleinste Verzögerungen bei der Übertragung von Steuerungsbefehlen können lebensgefährlich werden. Daher sind für solche Szenarien verteilte Mini-Rechenzentren an Ort und Stelle notwendig – mit anderen Worten: Edge Computing.

Edge Computing verspricht mehr Kosteneffizienz

Auch bestimmte Anwendungsfälle aus den Bereichen Predictive Maintenance oder Qualitätssicherung erfordern Rechenkapazitäten direkt am Ort ihres Einsatzes. Zum Beispiel, wenn Unternehmen nicht nur langfristige Prognosen für die Wartung ihrer Maschinen vornehmen möchten, sondern auch in der Lage sein möchten, ad hoc auf potenzielle Störungen reagieren zu können. Wenn eine Maschine droht, zu überhitzen, oder eine Kamera ein fehlerhaft gefertigtes Teil in der Produktion erkennt, müssen die Maschinen umgehend gestoppt werden, um keine Folgeschäden in der Produktion zu riskieren. Für solche Anwendungsfälle sind Edge-Einheiten notwendig, die Daten von Sensoren unmittelbar verarbeiten und bei Bedarf eine Reaktion auslösen. Eine Reaktion aus der Cloud kann hier zu träge sein.

Neben der Sicherung von Anwendungsbetrieb und Performance spielt bei Edge Computing auch das Kostenargument eine gewichtige Rolle. Zwar wäre es technisch möglich, für den Weg zu einem zentralen Rechenzentrum oder in die Cloud hohe Bandbreiten bereitzustellen – doch die hierbei entstehenden Kosten würden besonders bei mittelständischen Unternehmen den Rahmen sprengen. Auch hier können Edge-Devices Abhilfe schaffen: Etwa, indem sie die Aufgabe übernehmen, Daten von Sensoren vor zu filtern oder in ein weniger Datenintensives Format umzuwandeln, bevor sie in die Cloud wandern. Bilder einer Überwachungskamera beispielsweise müssen nicht vollständig archiviert und übertragen werden. Es genügt, die Bilder zu übertragen, auf denen eine Änderung oder Bewegung registriert wird.

Parallelbetrieb von zentraler und dezentraler Verarbeitung

Nachdem der Trend in den letzten Jahren immer mehr zu einer zentralisierten Datenhaltung in der Cloud ging, beginnt mit Edge Computing daher scheinbar eine gegenläufige Entwicklung. „Tatsächlich geht es dabei jedoch nicht um eine komplette Umkehr, sondern darum, ähnlich wie beim Cloudbetrieb für jeden Unternehmensprozess und jedes Anwendungsszenario die geeignete IT-Betriebsstrategie zu finden“, sagt Heiko Hebner, Telekom Deutschland GmbH. So wie Unternehmen im Hybrid-Betriebsmodell bestimmte geschäftskritische Legacy-Anwendungen vor Ort betreiben, während sie Standard-Bürosoftware, E-Mail und auch Backups in die Cloud auslagern, wird es einen Parallelbetrieb von zentraler und dezentraler Datenverarbeitung und -analyse mithilfe von Edge-Devices geben (müssen). Denn Bereiche wie KI, Machine Learning und Big Data Analytics erfordern in vielen Fällen Edge Computing – nämlich dann, wenn es schnell gehen muss oder gar um Echtzeit-Anwendungen geht.

Unternehmen mit verteilten Standorten werden daher um Edge-Devices nicht herumkommen, um Echtzeitanwendungen umsetzen zu können – ob es sich um IoT-Szenarien eines Fertigungsunternehmens handelt oder um Big-Data-Analysen des Kundenverhaltens in den Filialen einer Handelskette, um nur zwei Beispiele zu nennen.

Übergreifend Sicherheit gewährleisten

Dabei darf die Sicherheit nicht zu kurz kommen: Um sämtliche Komponenten einer IT-Infrastruktur bestmöglich zu schützen und Risiken zu minimieren, ist es entscheidend, ein zentrales Sicherheitskonzept aufzusetzen und durchgängig für alle Standorte und Geräte zu implementieren. Dazu gehört unter anderem der Einsatz von Analyse-Software und Management-Tools, mit deren Hilfe sich Rechenzentren, Edge-Einheiten und mobile Nutzer zentral verwalten lassen. „Um Kompromittierungen von außen wie innen zuvorzukommen, empfiehlt es sich, ein proaktives Sicherheitsmanagement zu betreiben und etwa ein Security-Information-and-Event-Management-System zu nutzen – kurz: SIEM. Es dient der Echtzeitanalyse von Sicherheitsalarmen aus Anwendungen und Komponenten und hilft beispielsweise, Anomalien im Datenverkehr und der Kommunikation von Systemen zu erkennen“, sagt Jens Quitschau Telekom Deutschland.

Mit Hyper-Converged-Infrastrukturen Edge-Szenarien gestalten

Unabhängig von Größe und Branche benötigen Unternehmen heute und in Zukunft Infrastrukturen, die zentrale und dezentrale Datenverarbeitung abdecken können. Um dieses hybride Szenario umzusetzen, bieten sich so genannte hyperkonvergente Infrastrukturen an. Diese ermöglichen es, schnell und kosteneffizient dezentrale Infrastrukturen aufzubauen und die verteilten Endpunkte an den jeweiligen Standorten zu managen, die besondere Leistungsanforderungen haben. Eine hyperkonvergente Infrastruktur bietet beispielsweise Replikationsmechanismen, mit deren Hilfe sich Backups von Edge-Einheiten auf zentralen Servern anlegen lassen. Technologien wie Datenkompression und Deduplizierung vermeiden Redundanzen und beugen Datensilos an den Edge-Punkten vor, während WAN- und Protokolloptimierungen den Datentransport auf der Netzwerkstrecke beschleunigen.

Zukunftsfähige Lösungen für Rechenzentren

Um Cloud- und Edge-Ressourcen optimal miteinander zu vernetzen, bieten Telekom und Cisco Unternehmen eine entsprechende Möglichkeit. Auf Basis einer hyperkonvergenten Infrastruktur können Unternehmen Lösungen entlang ihrer Bedürfnisse zusammenstellen; basierend auf Netzanbindungen und Sicherheitswerkzeugen von Telekom und Cisco.

Doch eine Lösung, die die Anforderungen von zentraler und dezentraler Datenverarbeitung bestmöglich miteinander verheiratet, gibt es nicht von der Stange – es bedarf einer umfassenden Beratung. „Dank unserer langjährigen Kompetenz und Erfahrung in Rechenzentrumsprojekten aller Größen und Branchen können wir Unternehmen ein individuelles Paket aus dem Komponenten-Baukasten unseres Partners Cisco zusammenstellen, das Anforderungen von Echtzeitverarbeitung und Edge Computing berücksichtigt“, sagt Jörg Schrödel, Telekom Deutschland GmbH. „Unternehmen sollten den Schwerpunkt nicht zu sehr auf technische Aspekte legen, sondern konkrete Bedürfnisse und Ziele hinsichtlich ihrer Applikationen und Geschäftsprozesse formulieren. Auf Basis dieses Anforderungsprofils kann die Telekom zielführend beraten, ein passendes Lösungsdesign erstellen und Service sowie Support leisten – alles aus einer Hand.“


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert