Archiv des Autors: triesenhuber

CLO19_Ubisoft_Azure_042_169

Modernisierung und/oder Digitalisierung mit Azure. Eine Einführung (Whitepaper)

Viele denken bei Cloud erstmal an große Rechenzentren mit vielen Servern. Diese Server stellen das Herzstück der Cloud dar. Allerdings können Azure-Kunden sehr viel mehr Dienste in Anspruch nehmen als Server oder Netzwerk- und Speicherinfrastruktur: über 800 verschiedene Dienste, von einfacher Datenspeicherung bis hin zu trainierten Modellen für Bild- und Spracherkennung stehen für die eigene Nutzung zur Verfügung. Azure bildet dabei alle drei Ebenen des Cloud-Computing ab: Infrastructure-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS). Ein neues Whitepaper von Microsoft bietet eine Einführung in wichtige Aspekte der Microsoft Cloud-Plattform.

Microsoft stellt mit Azure eine Vielzahl von Ressourcen bereit, die von Kunden nach Bedarf genutzt werden können und nach tatsächlicher Nutzung abgerechnet werden (sog. „Pay-as-you-Go“). Das ist ein wesentlicher Unterschied zu früheren besitzorientierten IT-Modellen, bei denen etwa Software-Lizenzen für einen Server auch dann durchgängig bezahlt werden mussten, wenn der Server zwischenzeitlich nicht genutzt wurde. Das nutzungsbasierte Zahlungsmodell erlaubt es Kunden oftmals, ihre IT zielgerichteter (und bisweilen günstiger) zu nutzen als bisher.

Modernisierung oder Digitalisierung? Oder beides?

Die meisten Azure-Kunden in Deutschland haben sich der Cloud zunächst mit Innovationsthemen genähert, die sie aus Technologie-, Kosten- oder Organisationsgründen allein nicht hätten umsetzen können. Insbesondere die Entwicklung von mobilen Apps für Partner und Endkunden und andere Web-Anwendungen spielten dabei eine wichtige Rolle. Darauf bauen dann häufig Anwendungen aus dem Datenanalysebereich, künstlicher Intelligenz und IoT auf. Die Kunden gehen damit die ersten Schritte in Richtung digitaler Transformation und erproben neue Geschäftsmodelle.

Jetzt stellt sich die Frage: Was ist das richtige weitere Vorgehen? Ehe man sich dieser Frage nähert, sollte man jedoch mit einer grundlegenden Frage beginnen: Wie viel Cloud ist das Richtige für Sie?

Die meisten Unternehmen verfügen heute über eine eigene IT-Organisation, die die tatsächlichen Geschäftsanforderungen mit allen Fassetten so gut kennt und nachvollziehen kann wie es jemand Externes kaum kann. Es wird also auch weiterhin eine IT-Organisation zwischen Fachbereich und Technologie benötigt, es wird sich jedoch ändern, welche Aufgaben diese hauseigene IT wahrnimmt.

Wenn also die eigene IT-Strategie und das bestehende IT-Anwendungsportfolio über die Dimensionen „Komplexität“ und „Beitrag zum Wettbewerbsvorteil“ aufgespannt werden, dann bietet Microsoft Azure in vielen Bereichen das Potenzial, Kosten zu senken und mit digitaler Innovation wettbewerbsfähiger zu werden. Und gerade der Aspekt des Wettbewerbsvorteils spielt bei der Auswahl des richtigen Cloud-Anbieters eine wichtige Rolle.

Datenschutz, Compliance und IT-Sicherheit

Wer seine IT in einer Public Cloud betreibt, muss sicher sein, dass die rechtlichen Anforderungen der europäischen Datenschutzgrundverordnung (DSGVO) genauso eingehalten werden, wie der Schutz des unternehmerischen Wettbewerbsvorteils. Ein erfolgreiches Projekt ist nur möglich, wenn das Vertrauen gegenüber dem Cloud-Anbieter besteht, dass dieser die rechtlichen Anforderungen und höchste Ansprüche an Datensicherheit erfüllt.

Microsoft Azure verfügt über mehr als 90 internationale, landes- und industriespezifische Zertifizierungen und damit über mehr als jeder andere Public-Cloud-Anbieter. Der Einsatz modernster Technologien, die bestmögliche Umsetzung von IT-Sicherheitsmanagementstrukturen und regelmäßige Investitionen in die IT-Sicherheitssysteme sorgen dafür, dass höchste Anforderungen an Datenschutz und Datensicherheit erfüllt werden.

Die besonderen Anforderungen der DSGVO werden dabei nicht nur im europäischen Wirtschaftsraum angewandt, sondern wurden von Microsoft als weltweiter Standard für alle Rechenzentren weltweit übernommen.

Kostenbetrachtung: Vorteile nicht nur durch Einsparung

Die größten Einspareffekte entstehen durch eine typische Eigenschaft von Azure: Kunden zahlen nur für das, was sie nutzen. Wenn eigene Hardware im Einsatz ist, muss diese für Lastspitzen ausgelegt sein, also im Zweifelsfall dafür angeschafft werden – was aber auch bedeutet, ein Großteil der Zeit wird verfügbare Hardwareleistung nicht genutzt. Das kostet bares Geld. Wenn mit Azure hingegen virtuelle Maschinen auf die durchschnittliche Auslastung ausgelegt sind und bei Lastspitzen hochskaliert werden, reduzieren sich die Kosten im Schnitt um 20-30 Prozent. Durch die Anpassung von Anwendungsarchitekturen und die Nutzung von PaaS-Diensten („Platform-as-a-Service“), die insbesondere den Betriebsaufwand reduzieren, lassen sich im Schnitt weitere 30 Prozent einsparen.

Für die Bestandsaufnahme stellt Microsoft das kostenlose Werkzeug Azure Migrate zur Verfügung, mit dessen Hilfe die Server, Anwendungen und Abhängigkeiten zwischen Anwendungen identifiziert werden können. Außerdem erfolgt eine Abbildung der Bestandsumgebung auf die verschiedenen Azure-Dienste, mit deren Hilfe unter anderem eine erste Kostenindikation getroffen werden kann und die Migration geplant werden kann.

Neben der Kostenbetrachtung ist aber auch ein Finanzmodell für die Cloud-Transformation zu entwerfen: Durch zusätzlichen Innovationsgewinn und neue Geschäftsmodelle, Entlastung von Alltagsaufgaben oder höhere Flexibilität lassen sich zusätzliche Geschäftspotenziale heben, die über die Kostenbetrachtung weit hinaus gehen. Diese Aspekte müssen für die wirtschaftliche Rechtfertigung einer Cloud-Transformation aber ebenfalls berücksichtigt werden.

Microsoft Azure bietet daher nicht nur kostenlose Werkzeuge für das Kostenmanagement, sondern auch wichtige Empfehlungen und Funktionen zur Vermeidung unerwarteter Kosten.

Regelmäßig prüfen und reagieren

Eine Einordnung des bestehenden und zukünftigen IT-Portfolios stellt eine wichtige Grundlage für die wirtschaftliche Umsetzung einer Cloud-Strategie dar. Diese Analyse sollte regelmäßig wiederholt werden, um auf veränderte Nutzung reagieren zu können. Azure unterstützt diesen Prozess mit kostenlosen Werkzeugen wie dem Azure Cost Management.

Ausführliche Informationen rund um die Grundlagen von Azure, Praxisbeispiele sowie hilfreiche Kontakte und weiterführende Informationen finden Sie im Whitepaper (PDF-Download) „Modernisierung und Digitalisierung mit Microsoft Azure. Eine Einführung in wichtige Aspekte der Microsoft Cloud Plattform “.

SUR18_Holiday_Contextual_2455_CMYK_169

Process Mining für alle: Wie PAFnow den Markt revolutionieren will

Der Markt für Process Mining ist noch jung, wächst jedoch deutlich. Erst kürzlich prognostizierte Research and Markets bis 2023 ein Wachstum des globalen Marktvolumens für Prozessanalysen von jährlich rund 50 Prozent auf etwa 1,5 Milliarden US-Dollar. Umso revolutionärer erscheint da das Ansinnen der Process Analytics Factory GmbH: Sie möchte Unternehmen jeder Größenordnung mit ihrem kostenfreien Power BI-Plugin „PAFnow“ die Nutzung dieser Technologie ermöglichen und mehr Orientierung für alle in Geschäftsprozessen tätigen Mitarbeiter schaffen.

Mitarbeiter kennen Unternehmensabläufe in der Regel am besten. Sie erkennen Prozessprobleme am schnellsten, Auswirkungen von Prozessproblemen treffen sie zuerst. Deshalb glaubt Tobias Rother, CEO der Process Analytics Factory, kurz: PAF, dass Process Mining eine fundamentale Fähigkeit für Millionen Mitarbeiter rund um den Globus sein sollte. Aber wo setzt man an, um dieses Ziel zu erreichen? Beim digitalen Arbeitsplatz – und dort bei Office 365. Millionen Anwender weltweit setzen diese Cloud-Lösung tagtäglich ein. Durch die Integration von PAFnow in Microsoft Power BI – Bestandteil von Office 365 – kann erlangtes Wissen aus Prozessdaten aktiv genutzt und direkt in Optimierungsmaßnahmen umgesetzt werden. Also genau dort, wo Prozessprobleme entstehen – und wo sie auch direkt beseitigt werden können.

„Das ist ein großer Schritt für uns und ein wichtiger ‚Demokratisierungsschub‘ in der digitalen Arbeitswelt. Bisher war die Prozessvisualisierung per Process Mining in dieser Tiefe bei praktisch allen Anbietern exklusiver Teil von sehr spezialisierten, lizenzpflichtigen Lösungen und nur einigen wenigen Data Scientists vorbehalten. Ab sofort kann jeder Mitarbeiter in jedem Unternehmen, das Microsoft Power BI verwendet, weltweit kostenfrei Process Mining für die Analyse und Optimierung von Geschäftsprozessen nutzen“, so Tobias Rother.

In einem Schritt: Prozesse analysieren und optimieren

Jeder Nutzer von Microsoft Power BI weltweit kann mit PAFnow kostenfrei ein vollfunktionsfähiges Tool zur Visualisierung und Analyse von Prozessschritten einsetzen. Voraussetzung sind eine Desktoplizenz für Microsoft Power BI (kostenfrei), Eventdaten aus Vorsystemen wie SAP, Salesforce oder Excel, und die Installation von PAFnow als ‚Custom Visual‘ in Microsoft Power BI.

PAFnow analysiert die entsprechenden Eventdaten und zeigt ihre sequenzielle Abfolge sowie ihr Zusammenwirken in grafischer und damit leicht verständlicher Form eines Prozessgraphen an. Über diese vollständige Sicht auf den gelebten Ist-Prozess lassen sich – ohne Vorkenntnisse oder Fachwissen im Bereich Data Science – Schwachstellen und Optimierungspotenziale präzise aufdecken. Darüber hinaus können zentrale KPIs wie beispielsweise Durchlaufzeiten oder die Anzahl von Ablaufvarianten für wichtige Vorgänge definiert, in eigene Power-BI-Berichte übernommen und zusätzlich über Dashboards allen Mitarbeitern zugänglich gemacht werden. Eine große Anzahl Ablaufvarianten ist beispielsweise ein Anhaltspunkt für geringe Standardisierung und ineffiziente Abläufe.

Prozessbaum eines Einkaufsvorgangs in PAFnow: Das Plugin visualisiert Prozesse und hilft, Schwachstellen und Optimierungspotenziale aufzudecken

Das Besondere an PAFnow ist, dass sich damit Geschäftsprozesse in datenintensiven Bereichen wie Controlling, Produktion, Marketing oder Vertrieb von jedem mit Office 365 ausgestatteten Arbeitsplatz – also aus der gewohnten Arbeitsumgebung heraus – aktiv analysieren, visualisieren und im gleichen Schritt optimieren lassen.

Drastische Zeitersparnis

„In jedem Unternehmen werden tagtäglich Prozesse analysiert, transformiert, migriert. Wenn man sich angesichts der beeindruckenden Ergebnisse von Process Mining jetzt fragt, »Warum haben wir denn in den letzten 30 Jahren nicht alle mal unsere Hausaufgaben zu Ende gemacht?«, dann muss man ganz klar sagen: Weil es technisch einfach noch nicht ging. Wir befinden uns inmitten eines Paradigmenwechsels im Process-Mining-Markt. Durch die Verknüpfung von Process Mining mit künstlicher Intelligenz – also Process AI – sind wir in der Lage, Prozesse zu analysieren und zur Laufzeit richtig zu Ende zu bringen. ‚Process AI‘ lernt für den Nutzer automatisch aus Daten und wird so ein mehrwertstiftender Bestandteil des digitalen Arbeitsplatzes werden,“ begeistert sich Tobias Rother.

Die umfangreichen Microsoft Azure Services, insbesondere im analytischen Bereich, stellen dabei wichtige KI-gestützte Methoden und Technologien bereit, um besondere Erkenntnisse aus den Daten zu gewinnen, Entwicklungen mit hoher Wahrscheinlichkeit zu prognostizieren und Anomalien in Prozessen zu identifizieren. Mit PAFnow und der Integration in den digitalen Arbeitsplatz konnte PAF die Prozessanalyse automatisieren und die Zeit für die Diagnose von Geschäftsprozessen für Unternehmen dadurch drastisch reduzieren: Was früher bisweilen 100 Tage gedauert hat, ist heute in 1 Tag möglich. Auch die Umsetzung der Optimierung lässt sich heute in wenigen Wochen statt Monaten realisieren.

Weiter Richtung Zukunft

Mit Process AI ist es für die Process Analytics Factory nicht getan. Als Partner im Forschungsprojekt KI.RPA wird ein neuartiger Lösungsansatz für autonome Prozessoptimierung verfolgt. Grundlage ist eine bisher einmalige technologische Kombination von künstlicher Intelligenz, Robotic Process Automation (RPA) und Process Mining. Neben technologischer Innovation zielt das Projekt darauf ab, Unternehmen die Möglichkeit an die Hand zu geben, Mitarbeiter von ermüdenden Routineaufgaben für anspruchsvollere Tätigkeiten freizusetzen – und damit zugleich Kosten zu reduzieren, die Geschwindigkeit zu erhöhen und die Fehlerquote zu senken. Das dahinterliegende Potenzial ist enorm: Im Regelfall kann ein Software-Roboter bis zu fünf Mitarbeiter von repetitiven Abläufen entlasten. Somit kann der Mensch sich Aufgaben widmen, bei denen seine einzigartige Erfahrung und Entscheidungsfähigkeit gefragt sind.

MSC17_dataCenter_038_169

SAP on Azure: Betriebsoptimierung mit der Run Cloud Right-Methode

Wir bezahlen über die Cloud, wir designen, streamen, präsentieren und kommunizieren in der Cloud. Doch bei geschäftskritischen SAP-Anwendungen sind Cloud-Services noch nicht im Alltag angekommen. Wenn es darum geht, das eigene SAP-System zukunftsweisend aufzustellen und gleichzeitig den ersten Schritt Richtung Cloud zu vollziehen, bietet sich eine Verbindung von SAP und Microsoft an. SAP on Microsoft Azure verschafft Unternehmen signifikante Vorteile, die aber erst aus der Symbiose beider Technologien entstehen und durch den richtigen Betrieb ihr volles Potenzial offenbaren. Ein Artikel von Raoul Menges, Lead Consultant Cloud Infrastructure Solutions bei der PTSGroup.

Mit digitalisierten Prozessen, Predictive Analytics, Machine Learning und unbegrenzter Mobilität müssen Systeme immer größere Datenmengen bewältigen. Doch was nützen unzählige Daten, wenn sie von Ihrem System nur schleppend analysiert und ausgewertet werden können? Um (SAP-)Systeme optimal an diese Herausforderungen anzupassen, lassen sie sich in der Cloud betreiben. Damit kann die benötigte Flexibilität und Transparenz gewährleistet werden, die Unternehmen für ihre nachhaltige Wettbewerbs- und Innovationsfähigkeit benötigen.

Der erste Schritt in die Cloud: Die Migration

Für eine Migration in die Azure Cloud gibt es für SAP R/3-Systeme drei Ansätze. Bei allen dreien ist die Grundlage für die Entscheidung immer eine detaillierte Analyse der systemisch abgebildeten Geschäftsprozesse sowie der bestehenden Systemlandschaft.

  1. Beim Greenfield-Ansatz wird eine neue S/4HANA-Installation in Azure bereitgestellt. Auf dieser werden dann die im ersten Schritt analysierten und optimierten Prozesse abgebildet. Eine Datenübernahme sollte hier nur eingeschränkt erfolgen. Das Altsystem kann im Anschluss abgeschaltet oder per Lift & Shift ebenfalls in die Cloud als Revisionssystem migriert werden.
  2. Beim Brownfield-Ansatz wird per In-Place-Conversion das existierende Altsystem technisch in ein S/4HANA-System gewandelt. Durch mehrfache Test-Conversions wird dabei die S/4HANA-Fähigkeit laufend getestet und optimiert. Hier müssen Prozesse und Eigen-Entwicklungen lauffähig gemacht werden.
  3. Beim Lift & Shift wird das System weder prozessual noch technisch verändert. Es wird technisch 1:1 in die Cloud überführt.

Der zweite Schritt: Run Cloud Right

Die moderne Arbeitswelt fordert flexible Systeme, Kosteneinsparungen für nachhaltige Wettbewerbsfähigkeit und Innovationsfähigkeit. Software-as-a-Service-Modelle sind weitestgehend etabliert und durch ihre monatliche Kündbarkeit keine risikobehaftete Investition. Die Antwort der PTSGroup für eine moderne und effiziente IT-Infrastruktur lautet daher: Run Cloud Right.

Nach der Vorbereitung und Migration der Systeme innerhalb des Unternehmens ermöglicht die Run Cloud Right“-Methode einen transparenten Betrieb aller Systeme auf Microsoft Azure. Wie die Transparenz zustande kommt, verdeutlicht die Anwendung der Methode auf die eigenen Systeme der PTSGroup:

Bei einer 1:1 Übertragung der Nutzung von OnPrem vs. Azure Cloud bestätigt sich das gängige Klischee „zu teuer“. Betrachtet man die Ausgangsituation (SAP S/4HANA-System mit zwei Instanzen im eigenen Rechenzentrum), ist der Betrieb durch die Hardware-Bereitstellung zeitaufwendig, die Hardware skaliert schlecht und verlangt ein hohes Investment vor der ersten Nutzung. Hinzu kommt die Unsicherheit, ob wirklich alle Anforderungen mit dem gewählten Setting bedient werden können. Insgesamt sind die Gesamtbetriebskosten (TCO) bei einer 5-Jahres-Betrachtung mit 99.440 € allerdings niedriger (Kosten wie etwa Abschreibungen sind hier nicht berücksichtigt) als der direkte Vergleich zum Cloud-Betrieb mit einem TCO von knapp 174.000 €. Jedoch sind beim Cloud-Betrieb keine Vorabinvestitionen notwendig, die HANA-zertifizierte Infrastruktur steht auf Knopfdruck bereit und die hohe Skalierbarkeit gemäß individuellen Bedürfnissen ist gegeben, sodass alle Anforderungen an die Lösung agil bedient und der Cloud-typische Pay-as-you-go-Vorteil genutzt werden können.

Run Cloud Right-Komponente 1: Analyse notwendiger Betriebszeiten

Für einen optimierten Betrieb der Cloud ist das Monitoring der Verbrauchswerte die erste Stellschraube, da sie ein kaufmännisches „Finetuning“ und eine fortlaufende Optimierung der Ressourcen ermöglicht. Im ersten Schritt wird hierzu eine Analyse der erforderlichen Betriebszeiten für die Dev- und Prod-Systeme vorgenommen. Wir gehen von der Annahme aus, dass unterschiedliche Anforderungen an eine Betriebszeit je System vorliegen. In unserem Fall hat sich dadurch ergeben, dass am Wochenende alle Systeme offline bleiben und bei Bedarf alle Systeme außerhalb der Regelbetriebszeit manuell per App gestartet werden können. Für die Dev-Instanz wurde die Betriebszeit auf 8/5 eingestellt. Die Systeme werden werktags morgens um 08:00 Uhr gestartet und nachmittags um 16:00 Uhr heruntergefahren. Für das Prod-System ist eine 12/5 Betriebszeit ausreichend. Um diese Zeiten herauszufinden, wird eine Analyse der internen Nutzung des Systems und ggf. eine Umstellung von Batch-jobs vorgenommen.

Ist stattdessen eine 24/7 Betriebszeit für die Produktivumgebung eine Muss-Anforderung – beispielweise für produzierende Unternehmen im Schichtbetrieb – dann kann für das Produktivsystem eine Azure-Reserved-Instance (ARI) genutzt werden, die bei einer Laufzeit von 36 Monaten Preisersparnisse von bis zu 72 % gegenüber einem 24/7 Pay-as-you-go-Modell ermöglicht. Dazu werden für einen Zeitraum von drei Jahren reservierte und im Voraus bezahlte Kapazitäten in der Azure Cloud bedarfsgerecht bereitgestellt.

Run Cloud Right-Komponente 2: Analyse notwendiger Skalierung

Der zweite Bestandteil unserer Run Cloud Right-Methode ist die Analyse der tatsächlichen Auslastung (CPU, RAM) des Systems. Um Spitzen abzufangen, werden Systeme anfangs oft zu groß gesized. In der On-Premise-Welt ist das ein Muss, da es sonst dazu führen kann, dass nach einem halben Jahr neue und teure Hardware nachgekauft werden muss. Dieses Risiko besteht in der Cloud nicht. Hier kann man mit einfachen Mitteln die zur Verfügung stehenden Ressourcen hochskalieren. Allein durch dieses Resizing können bis zu 50 % der ursprünglichen Annahme eingespart werden.

Run Cloud Right-Komponente 3: „Predictive“ Resizing

Abschließend folgt das Predictive Resizing. Hierfür wird analysiert, ob und wenn ja, welche wiederkehrenden, Last-intensiven Jobs auf den Systemen laufen. Werden beispielsweise jeden letzten Freitag im Monat die Personalabrechnungen durchgeführt, so kann in der Nacht zuvor, wenn das System ausgeschaltet ist, die Skalierung auf die doppelte Leistung anpasst werden. Nach dem nächsten Herunterfahren wird wieder auf die ursprüngliche Skalierung (für die täglichen Aufgaben ausreichend) zurückgestellt. So profitiert man von der Power, die die Cloud bereitstellt, behält die Kosten aber im Griff.

Mit Run Cloud Right die Cloud RICHTIG betreiben

Mit „Run Cloud Right“ konnten wir eine Ersparnis von etwa 1.200 €/Monat realisieren. Insgesamt verändert sich die TCO-Betrachtung zum Vorteil der Cloud: Mit dem richtigen Betrieb sind die TCO niedriger, da im Vergleich zum Rechenzentrumsbetrieb 30 % Einsparungen realisiert werden können. Die Analyse zeigt, dass SAP on Azure nicht als reines Infrastrukturprojekt verstanden, sondern als Betriebszeitoptimierungsmodell fruchtet, um mit „Run Cloud Right“ an den richtigen Stellschrauben Einsparungen zu realisieren.

Run Cloud Right-Add-on 1: PTS Consumption Monitor

Für unsere Kunden ist die monatliche Abrechnung oft nicht aussagekräftig genug. Deshalb nutzen wir zur Steigerung der Transparenz der Aktivitäten in der Azure Cloud als zusätzliche Komponente der Run Cloud Right-Methode den PTS Consumption Monitor als Frühindikator in der Kostenkontrolle. Mit dem Microsoft-Mietmodell werden die Azure-Kapazitäten nach tatsächlichem Nutzen gezahlt, sodass vorab kalkulierte Kosten Richtwerte sind. Daher ist es wichtig, einen aktuellen Überblick der genutzten Ressourcen zu erhalten und die tatsächlich anfallenden Kosten in Echtzeit zu überblicken, um so ggf. „teure“ Systeme zu identifizieren. Der PTS Consumption Monitor trägt zur Kostentransparenz bei, indem die Kosten der Systeme bis auf einzelne Komponenten herunter transparent dargestellt werden. Diesen stellen wir unseren Kunden kostenlos zur Verfügung.

Run Cloud Right-Add-on 2: PTS SAP Monitoring Agent

Nach der Migration ist es entscheidend, die Systeme richtig zu managen. Mithilfe des PTS SAP Monitoring Agents bieten wir einen Single Point of Control für die Überwachung von SAP- und Non-SAP-Systemen. Der PTS SAP Monitoring Agents zeigt z.B. Work-Prozesse inkl. Langläufererkennung detailliert an. Verbuchungen sowie abgebrochene Verbuchungssätze können transparent aufgezeigt werden. Abgebrochene Jobs inkl. (Mail-) Alerting können an bestimmte Personenkreise verschickt werden. Der Status quo der Datenbanken kann in Echtzeit und auf einen Blick alle notwendigen Informationen anzeigen: Füllgrad, Backup, Redolog-Sicherungen, Next-Extend/ Autoextend. Auch werden Netzwerkfehler erkannt, die wichtig für den Zugriff auf die SAP-Systeme sind.

Die CCMS-Integration zeigt Dialog-Antwortzeiten und ein Transaktionsmonitoring. Zusätzlich können RFC-Verbindungen sowie IDOCs analysiert werden. Batch-Input-Mappen werden erzeugt sowie Anpassungen der Systemänderbarkeit aufgelistet. Veränderungen der Mandanteneinstellungen sowie ein Überblick der LastBackup und LastRedolog werden ebenfalls ausgewertet und aufgezeigt.

Über den PTS SAP Monitoring Agent lassen sich somit auch Business-Prozesse monitoren:

  • Läuft das SAP-System rund?
  • Ist der Drucker im Lager erreichbar?
  • Läuft das Archivsystem – funktioniert die RFC-Verbindung?
  • Sind WLAN-Access-Points erreichbar, über die zum Beispiel Barcode-Scanner arbeiten?

Run Cloud Right-Add-ons generieren Mehrwert

Ohne Anpassung des Cloud-Betriebs können keine signifikanten Mehrwerte der neuen Technologie ausgespielt werden. Mit der Run Cloud Right-Methode wird der optimale Betrieb in Azure ermöglicht. Damit kann eine individuelle und passende Strategie bei der Migration der Systeme zu Azure sichergestellt werden. Mit Run Cloud Right wird der Betrieb in der Cloud lukrativ für jedes Unternehmen. Die neuen Technologien in Azure plus die PTS Add-Ons ermöglichen “to run your best run right!”

 

Über die PTSGroup
Nach über 20 Jahren in der SAP-Beratung ist die Begeisterung der PTSGroup für spannende Projekte ungebrochen. Die mehrfach zertifizierten Microsoft- und SAP-Partnerschaften sprechen für die hohe Beratungs- und Umsetzungsqualität, die nun im Bereich SAP on Azure gebündelt werden. Bestehende Prozesse zu optimieren, geht für die PTSGroup nicht weit genug. Das Unternehmen möchte neue Maßstäbe für die Services seiner Kunden und damit den Nutzen setzen. Gemeinsam mit ihren Kunden setzt die PTS Group innovative Technologien und Entwicklungen ein, um daraus neue, skalierbare Services zu integrieren, Geschäftsprozesse zu transformieren und das Geschäft ganzheitlich zu optimieren.

Über den Autor
Raoul Menges ist Lead Consultant Cloud Infrastructure Solutions bei der PTSGroup und Experte für das Thema SAP on Azure. Mit über 10 Jahren Erfahrung in diesem Bereich ist er ein anerkannter Experte und als Cloud Solution Architect gefragt. Er kennt sich in der onPrem-Welt wie auch der Cloud bestens aus und teilt sein Wissen als Redner auf verschiedenen Veranstaltungen zur Microsoft Azure Cloud. Durch diverse Zertifizierungen zum Microsoft Certified Professional (MCP) in den Bereichen Office 365, Dynamics, Azure sowie als Microsoft Licensing Professional (MLP), bildet er das komplette Spektrum der Microsoft Cloud-Technologien ab und kann dadurch kundenindividuelle Infrastrukturumgebungen entwerfen und mit seinem Team umsetzen.

 

MSC17_dataCenter_042_169

Erweiterter Schutz für Cloud-Workloads im Azure Security Center

Azure Security Center ist ein Sicherheitsverwaltungssystem für Infrastrukturen. Seine Aufgabe ist es, den Sicherheitsstatus von Rechenzentren zu stärken und einen erweiterten Schutz vor Bedrohungen für hybride Workloads bereitzustellen. Seit wenigen Monaten umfasst dieses Angebot auch Windows Defender Advanced Threat Protection (ATP). Damit erhalten Anwender umfassende zusätzliche Funktionen, mit denen sich etwa Anomalien oder erweiterte Angriffe auf Server-Endpunkte erkennen lassen. Wir stellen die wichtigsten vor.

Azure Security Center stellt Kunden die Tools zur Verfügung, die sie zum Schutz ihrer Infrastruktur benötigen. Sie erhalten Unterstützung bei der Identifizierung und Durchführung von Aufgaben, die als bewährte Sicherheitsmethoden empfohlen werden, und können diese dann für ihre Computer, Datendienste und Apps implementieren. Für den Einstieg in Security Center wird ein Microsoft Azure-Abonnement benötigt. Wer ein solches noch nicht hat, kann sich ein kostenfreies Testkonto anlegen lassen. Sobald die Azure-Abonnements integriert wurden, kann Security Center aktiviert werden – auch für Ressourcen, die außerhalb von Azure ausgeführt werden. Das ist speziell für Unternehmen interessant, die SQL Server 2008/2008 R2 oder Windows Server 2008/2008 R2 einsetzen, deren Supportenden für den 9. Juli 2019, respektive 14. Januar 2020 angekündigt wurden. Weitere Informationen dazu lesen Sie in unserem Artikel „Mit Azure Security Center auch lokale Server vor Cyberangriffen schützen“.

Bedrohungen frühzeitig erkennen und reagieren

Die Integration von Windows Defender ATP in Azure Security Center bringt verschiedene erweiterte Sicherheitsfunktionalitäten mit sich, um Workloads lokal und in der Cloud zu schützen:

Erkennungssensoren für Sicherheitsverletzungen. Windows Defender ATP-Sensoren für Windows-Server erfassen eine breite Palette von verhaltensbezogenen Signalen. Diese Sensoren werden automatisch für Windows-Server aktiviert, die in Azure Security Center integriert sind.

Auf Analysen basierende, Cloud-gesteuerte Erkennung von Sicherheitsverletzungen. Windows Defender ATP verwendet fortschrittliche Analysen und Big Data und kann sich dadurch schnell an sich ändernde Bedrohungen anpassen. Windows Defender ATP wird durch Intelligent Security Graph mit Signalen aus Windows, Azure und Office verstärkt, um unbekannte Bedrohungen zu erkennen. Nutzer erhalten aussagekräftige Warnmeldungen, wodurch eine schnelle Reaktion auf Sicherheitsbedrohungen oder -vorfälle möglich wird.

Informationen zu Bedrohungen: Windows Defender ATP identifiziert Angriffstools, -techniken und -verfahren. Werden diese erkannt, werden Warnungen generiert. Dabei werden Daten verwendet, die von Microsoft-Bedrohungsspezialisten und Sicherheitsteams generiert werden, ergänzt durch Informationen von Partnern. Den Umfang einer Sicherheitsverletzung können Kunden über die Windows Defender ATP-Konsole detailliert untersuchen bzw. anzeigen lassen:

Ihre nächsten Schritte zu mehr Sicherheit

Informationen dazu, wie Azure-Abonnements sich in Azure Security Center integrieren lassen, bietet diese Schnellstart-Anleitung. Auch für die Einbindung von Windows-Servern in Azure Security Center stellt Microsoft eine Schnellstart-Anleitung bereit. Kunden, die erst noch darüber nachdenken, ihre Workloads in die Cloud zu verlagern, können mit dem Tool Azure Migrate ihre Ist-Situation bestimmen und in die Planung einer kostengünstigen und optimierten Migration der Server in Richtung Azure einsteigen. Zusätzlich erhalten sie einen Überblick über die technischen Voraussetzungen und die voraussichtlichen Kosten des Betriebs virtueller Server. Eine weitere empfehlenswerte Ressource in diesem Zusammenhang ist das Microsoft Cloud Adoption Framework für Azure. Es hilft Unternehmen dabei, Strategien für Business, Kultur und technischen Wandel aufeinander abzustimmen, um die gewünschten Geschäftsergebnisse zu erzielen. Fortgeschrittene Azure-Nutzer erhalten in dem PDF „Azure Security Best Practices“ wertvolle Informationen und Anregungen zum Aufsetzen ihrer Sicherheitsstrategie.

Allgemeine Informationen zu den Herausforderungen und Lösungsmöglichkeiten im Zusammenhang mit dem Ende des Supports für SQL Server 2008/2008 R2 und Windows Server 2008/2008 R2 bietet diese Webcast-Aufzeichnung vom 14. Mai 2019. Unabhängig von Azure Security Center werden für Windows 2008/R2 und SQL Server 2008/R2 VMs, die auf Azure betrieben werden, die notwendigen Extended Security Updates, die zum Schließen möglicher erkannter Sicherheitslücken benötigt werden, für die nächsten 3 Jahre kostenfrei zur Verfügung gestellt. Weitere Information zum Supportende erhalten Sie auf dieser Website.

CLO18_theGherkin_001_169

Hybrid Cloud: Zwei Welten – eine Lösung

Die Cloud-Technologie setzt sich zunehmend durch. Sicherheits- und Datenschutzbedenken treten allmählich in den Hintergrund. Jedoch scheuen noch viele Unternehmen den Systemwechsel. Sie fürchten, bisherige Investitionen in ERP-Systeme zu verlieren. Dabei können Unternehmen mit einer hybriden Lösung das Beste beider Welten kombinieren. Ein Artikel von Ingo Czok, Senior Vice President Technology der Serrala Group GmbH.

90 Prozent der deutschen Unternehmen haben bereits eine Cloud-Strategie definiert und immerhin 68 Prozent verwenden Cloud-Services. Zu diesem Ergebnis kommt die Studie „Cloud Trends in Deutschland 2018“ von IDC (International Data Corporation). Demnach gehört die Digitalisierung der Informationstechnologie zu den Top 3-Prioritäten hiesiger Unternehmen in den kommenden zwölf Monaten. Der Trend: Die Unternehmen hierzulande packen an und gestalten die digitale Transformation aktiv. Sie wollen nicht Getriebene der Entwicklung sein, sondern neue Technologien dort einsetzen, wo sie Mehrwerte bringen und in die IT- und Unternehmensstrategie passen. Die Cloud hat sich dabei inzwischen fest etabliert – sowohl für Geschäftsapplikationen als auch für die Speicherung von Daten und Dokumenten. Gemäß der Umfrage „2018 Cloud Computing Executive Summary“ von IDG (International Data Group) ist das Budget für Cloud-Computing weltweit von 2016 bis 2018 durchschnittlich um 36 Prozent auf 2,2 Milliarden US-Dollar gestiegen. 45 Prozent der Unternehmen, die ihre Applikationen im Bereich Business Intelligence, Data Warehouse und Analytics noch nicht in die Cloud migriert haben, planen dies innerhalb der nächsten ein bis drei Jahre, fand das Wirtschaftsmagazin Forbes heraus.

Vertrauen stärken

Diese Zahlen verdeutlichen, dass mehr und mehr Unternehmen den Nutzen der Cloud-Technologie erkennen. Ein Plus an Agilität und Skalierbarkeit machen diese in der Regel deutlich flexibler und benutzerfreundlicher als klassische ERP-Installationen. Zudem schätzen Firmen die niedrigeren Betriebskosten und die Tatsache, dass Systeme nicht vor Ort gewartet werden müssen. Die zunehmende Akzeptanz von Cloud-Lösungen ist ein Indikator dafür, dass Sicherheitsbedenken, die besonders in Deutschland lange für Skepsis gegenüber Cloud Computing gesorgt haben, zunehmend weniger werden. Verlässliche Cloud-Backup- und Recovery-Lösungen, die Zeit und Vorabinvestitionen einsparen, tragen zusätzlich dazu bei, das Vertrauen in die Cloud zu stärken.

Gleichwohl stecken viele Unternehmen in einer Zwickmühle. Sie haben in den zurückliegenden Jahren in ERP-Systeme investiert, die On-Premise von der firmeneigenen IT verwaltet werden. In Anbetracht dieser Kosten ist es für die IT mitunter schwierig, neue Investitionen in Cloud-Server respektive die Migration von Daten in die „neue Welt“ durchzusetzen, zumal die bestehenden IT-Infrastrukturen noch gut funktionieren. Gefragt ist allerdings ein zukunftsorientierter Blick auf die Entwicklung. Die strategische Fragestellung für Entscheidungsträger in IT, Management und den Fachbereichen lautet: Wie lange bleiben wir mit der bestehenden Infrastruktur wettbewerbsfähig? Und wann muss umgesattelt werden, um in der globalen Geschäftswelt zukunftsfähig zu bleiben?

Clever vernetzen

Dabei muss die Nutzung neuer Technologien bei gleichzeitiger maximaler Wertschöpfung aus den bestehenden Systeminvestitionen kein Widerspruch sein. Ein hybrider Cloud-Ansatz beinhaltet im Wesentlichen die Verbindung eines lokalen ERP-Systems mit Cloud-Anwendungen. Dies geschieht idealerweise ohne komplexe und risikobehaftete Schnittstellen. So kann beispielsweise eine Kernlösung in einem ERP-System betrieben und um flexible Satellitenlösungen in einer Cloud-Umgebung ergänzt werden. Dadurch werden mehr Transparenz und Effizienz erreicht und gleichzeitig die zentrale Verfügbarkeit von Daten und Dokumenten gewährleistet. Der hybride Ansatz schließt somit die Systemlücke zwischen ERP und Cloud – und versetzt Unternehmen in die Lage, sich aus einem Dilemma zu befreien.

Voraussetzung dafür ist eine leistungsstarke Cloud-Plattform, die verschiedene Faktoren erfüllt. Lässt sich die Cloud gut in bestehende Systeme integrieren? Werden alle Sicherheits- und Compliance-Anforderungen erfüllt? Wie steht es um die globale Verfügbarkeit des Systems? Gerade die letzte Frage ist für international agierende Unternehmen relevant. Ein gutes Praxisbeispiel ist Azure von Microsoft. Die Plattform des führenden Contributers im Open-Source-Umfeld lässt sich flexibel vernetzen und integriert sämtliche existenten Office-Anwendungen im Unternehmen. Außerdem können Firmen diverse ERP-Systeme wie etwa SAP anbinden, die häufig den On-Premise-Kern einer Hybrid-Umgebung bilden. Azure wurde mehrfach in puncto Security und Compliance zertifiziert, umfasst Zukunftstechnologien wie Künstliche Intelligenz und Blockchain und bietet mit Azure Stack eine On-Premise-Variante, um hybride Cloud-Lösungen aktiv zu stützen.

Zusammenarbeit optimieren

Hybrid-Modelle wie diese sorgen für eine flexible Systemumgebung, in der Mitarbeiter ihre Aufgaben bestmöglich erledigen und harmonisieren können. Ausschlaggebend hierfür ist, dass alle Prozessbeteiligten Zugriff auf dieselben Daten haben und über den gleichen Informationsstand verfügen. Im Ergebnis optimiert das die Zusammenarbeit, verbessert Abstimmungsprozesse und reduziert Rückfragen – Arbeitsabläufe sowie Entscheidungen werden insgesamt transparenter. Dies lässt sich anhand einiger Bespiele aus der Praxis verdeutlichen:

  • Finanzwesen und Treasury: In der Finanzbuchhaltung und im Zahlungsverkehr hat die tägliche Arbeit einen starken ERP-Bezug, weshalb die Mitarbeiter On-Premise-Plattformen nutzen. Die Fachleute im Treasury-Bereich hingegen schätzen oftmals die Flexibilität einer cloudbasierten Lösung, die benutzerfreundlicher und intuitiver ist sowie Daten und Auswertungen besser visualisieren kann. Die Vorteile eines hybriden Modells liegen auf der Hand: Durch die optimierte Zusammenarbeit und die zentrale Verfügbarkeit der Daten, hat das Treasury stets eine tagesaktuelle Übersicht über die finanziellen Mittel und kann die besten Investitions- und Finanzierungsentscheidungen im Sinne des Unternehmens treffen.
  • Vertrieb und Kreditmanagement: Kreditmanager arbeiten in der Regel in ERP-Systemen und oftmals ist eine enge Kooperation mit dem Vertrieb gefragt, beispielsweise wenn einem Kunden aufgrund der Kreditrichtlinien des Unternehmens kein Lieferantenkredit eingeräumt werden kann (gesperrter Vertriebsbeleg). Allerdings nutzen Mitarbeiter im Außendienst üblicherweise keine On-Premise-Lösung. Auch hier kann ein Hybrid-Verfahren die unterschiedlichen Abteilungen sinnvoll miteinander vernetzen und Reibungsverluste reduzieren. Die Vorteile: schnellere Klarheit über die Bonität des Kunden, die Geschäfts- und Vertragskonditionen sowie die Historie. So können Kreditmanager und Vertrieb zügig zu einer fundierten Entscheidung kommen (ggf. höheres Kreditlimit gewähren oder Auftrag stornieren), ohne den Kunden lange warten zu lassen.
  • Zahlungsabwicklung: Im Zahlungsverkehr lassen sich erhebliche Vorteile durch eine Hybrid-Umgebung realisieren. Heterogene Systeme verschiedener Unternehmensniederlassungen sowie externer Dienstleister lassen sich auf diese Weise sinnvoll in einer zentralen Plattform integrieren. Unternehmen erreichen einen einheitlichen Blick auf alle Zahlungstransaktionen und sind in der Lage, Konvertierungen gemäß nationaler Zahlungsformate schneller durchzuführen. Zudem sind eine sichere Verschlüsselung und volle Konnektivität zu allen Banken weitaus einfacher zu realisieren. Daten aus dem Procure-to-Pay-Prozess, die teilweise in den ERP-Systemen lagern, können problemlos in Zahlungsaufträgen verwertet und an die über die Cloud angebundenen Banken übermittelt werden. Das Ergebnis: volle Transparenz über die eigenen Verbindlichkeiten, geringere Transaktionskosten und ein nahtloses Zusammenspiel von on-premise- und cloudbasierten Daten und Prozessen.

Nicht zuletzt wird durch die Verbindung von on-premise installierten Lösungen mit Cloud-Applikationen die Bedienung oftmals erleichtert und die Anwenderfreundlichkeit verbessert, was insgesamt zu einem positiven Kundenerlebnis führt. Die Unternehmen sind somit in der Lage, dem Endanwender die Vorteile der Cloud innerhalb der Hybrid-Umgebung zugänglich zu machen und die Leistungsfähigkeit der gesamten IT-Infrastruktur zu maximieren.

Flexibel reagieren

Darüber hinaus befähigen hybride Cloud-Lösungen Unternehmen, in weiteren Bereichen deutlich flexibler und agiler zu agieren als zuvor. Drei Beispiele:

  1. Neue Geschäftsmodelle oder Wachstum: Kommt es etwa im Zuge von Marktkonsolidierungen zu Fusionen, Zukäufen und sonstigen Aktivitäten rund um Mercer & Acquistions, muss die Integration unterschiedlicher Organisationen insbesondere auch technisch und prozessual gestemmt werden. Cloud-Lösungen lassen sich in solchen Fällen einfacher skalieren. Bei klassischen ERP-Lösungen sind Rollouts in andere Landesgesellschaften und zugekaufte Organisationen in der Regel mit komplexen Einführungsprojekten verbunden. Cloud-Lösungen sind hier flexibler, da sie bei Bedarf üblicherweise schneller erweitert oder zurückgefahren werden können. Die meist vorhandenen Abonnement-Modelle sorgen außerdem für eine bessere Kostenkontrolle.
  2. Auswertungen und Analysen: In hybriden Systemen werden Datensätze zentralisiert. Das ermöglicht ein ganzheitliches Berichtswesen, welches auch dezentrale Tochtergesellschaften berücksichtigt, die nicht in das ERP eingebunden sind. So verschaffen sich Unternehmen Transparenz über die Liquidität in der gesamten Organisation.
  3. Sicherheit und Compliance: Vorteile bietet eine Hybrid-Cloud auch in Sicherheitsfragen. Durch die Integration von ERP und Cloud können Betrugsversuche leichter identifiziert und verhindert sowie Compliance-Standards besser eingehalten werden. Denn gerade unsichere Schnittstellen, isoliert arbeitende und nicht integrierte Systeme sowie stark manuelle Prozesse stellen ein Einfallstor für Betrugsversuche und Compliance-Verstöße dar. Daher sind zentrale Authentifizierungs- und Zugriffsregeln mit klaren Berechtigungsprofilen über die Gesamtorganisation erforderlich.

Transformation gestalten

Unternehmen können ihren Weg in die Cloud individuell gestalten. Eine Umstellung von heute auf morgen ist nicht erforderlich. Vielmehr ist es sinnvoll, zu evaluieren, wie eine intelligente hybride Cloud die Vorteile beider Welten – On-Premise und Cloud – unternehmensspezifisch miteinander vernetzen kann. Es entsteht eine Symbiose, die den Anforderungen des Unternehmens und seiner Mitarbeiter entspricht und Unternehmen in die Lage versetzt, die eigene digitale Transformation aktiv zu gestalten. Das Ziel sind digitalisierte Geschäftsprozesse in einem intelligent und automatisiert agierenden Unternehmen.

Über den Autor
Als Senior Vice President Technology ist Ingo Czok für die cloudbasierten und mobilen Zahlungslösungen von Serrala verantwortlich. Er verfügt über umfangreiches Fachwissen in der Cloud- und Mobiltechnologie im Bereich Payment Hubs für multinationale Kunden sowie in der Bereitstellung von Bankportalen und hat bereits an zahlreichen Großprojekten mitgewirkt. Gemeinsam mit seinem Team hat Ingo Czok die Entwicklung mehrerer Serrala-Lösungen betreut, darunter die White-Label-Bankenlösung BCrest Payments und die Cloud-Lösung Alevate Payments. Darüber hinaus fokussiert sich Ingo Czok auf hybride SAP-Cloud-Lösungen für gemischte SAP- und Non-SAP-ERP-Installationen sowie auf das Thema Betrugsschutz.

Über Serrala
Serrala ist ein globaler B2B-Fintech-Softwarespezialist mit dem Ziel, die Welt des Zahlungsverkehrs für Unternehmen zu optimieren und ihnen effiziente Cash-Transparenz und sichere Finanzprozesse zu ermöglichen. Serrala unterstützt über 3.500 Kunden weltweit mit fortschrittlicher Technologie, intelligenten Automatisierungslösungen und individueller Beratung. Ihr umfassendes End-to-End-Portfolio automatisiert alle Prozesse rund um ein- und ausgehende Zahlungen sowie das Management der damit verbundenen Daten und Dokumente. Mit über 600 Mitarbeitern und Niederlassungen in Europa, Nordamerika, Asien und dem Nahen Osten ist Serrala ein zuverlässiger Lösungsanbieter für Kunden aller Größen und Branchen.

M365CO19_ENT_Dell3390_014_169

Zukunft austesten: SAP in der Cloud betreiben

Der Einsatz lokaler IT-Lösungen ist meist mit kostspieliger Hardware verbunden. Das gilt insbesondere im SAP-Bereich. Statt auf lokale Lösungen wird daher immer öfter auf bedarfsgerechte Lösungen aus der Cloud gesetzt. Doch auch diese erfordern Installation und Einrichtung. Wer diesen Aufwand vermeiden möchte, kann dafür Dienstleistungen wie den Managed Service SAP on Azure der All for One Group nutzen.

Wächst ein Unternehmen, so muss auch die IT wachsen. Wo auf eine herkömmliche IT-Infrastruktur gesetzt und diese im eigenen Rechenzentrum (on-Premises) betrieben wird, stößt man meist irgendwann an Kapazitätsgrenzen. Denn das Sizing einer IT-Landschaft ist für kleine Peaks ausgelegt, nicht jedoch für großes Wachstum. Hinzu kommt, dass der Betrieb einer komplexen IT-Infrastruktur fundiertes Know-how im Bereich Server und Storage, Netzwerk und Backup erfordert. Eine praktische Lösung bietet hier die All for One Group mit einem Azure-Management inklusive SAP-Betrieb als Managed Service SAP on Azure. Zudem kann auch die hochmoderne S/4HANA-Conversion-Sandbox für einen Testbetrieb genutzt werden.

SAP aus der Public-Cloud

Wer das hohe Investitionsvolumen bei SAP-Hardware und den zeitlichen Aufwand beim Konfigurieren der SAP-Systeme scheut, dem stehen unterschiedliche Optionen offen. Bei der Auslagerung sind jedoch langjährige Verträge nicht unüblich und die Bereitstellungszeiten für neue SAP-Systeme erstrecken sich oft über mehrere Wochen. Flexibler sind hier Public-Cloud-Plattformen wie Microsoft Azure, die sehr kurze Bereitstellungszeiten ermöglichen. Darüber hinaus werden dabei keine großen Kapitalmengen gebunden, denn es wird je nach Modell auf monatlicher (Pay-as-you-go) oder jährlicher Basis (Reserved Instances) abgerechnet. Mit Azure wird das Software-defined Datacenter Wirklichkeit: Die Hardware wird abstrahiert und sämtliche Infrastrukturkomponenten werden in einem Portal oder über APIs konfiguriert. Der Kunde braucht also keine Hardware mehr selbst zu beschaffen, sondern kann diese on-Demand, also nach Bedarf, mit entsprechenden Dienstvereinbarungen, kurz: SLAs, einkaufen.

Lesen Sie dazu auch die aktuelle Crisp-Studie „SAP-Betrieb in der Public Cloud?“ mit über zweihundert IT- und SAP-Entscheidern in deutschen Unternehmen.

Crisp-Studie: Welche Chancen und Benefits ergeben sich Ihrer Meinung nach durch den Betrieb von SAP-Lösungen auf IaaS-/PaaS-Plattformen in der Public Cloud (gegenüber dem Betrieb im eigenen Rechenzentrum bzw. dem klassischen Hosting)?

Aufwand nicht unterschätzen

Ist das passende Infrastruktur-Setup gefunden und ausgerollt, folgen die SAP-Installation und die Übernahme der Daten. Das bedeutet oft nach wie vor einen manuellen Schritt. Je nach bisherigem Automatisierungsgrad kann die Bereitstellung damit eher Wochen als Tage dauern. Dabei sollen Sandbox-Systeme für Projekte jedoch möglichst schnell zur Verfügung stehen.

Kürzere Zeiten können hier nur über eine Automatisierung des gesamten Bereitstellungsprozesses erreicht werden. Der Aufwand für eine automatisierte SAP-Installation ist dabei aber nicht zu unterschätzen, vor allem, wenn eine breite Palette an SAP-Produkten eingesetzt wird, denn jedes Produkt muss gesondert betrachtet werden. Das lohnt sich letzten Endes erst über die Masse – wie spezialisierte SAP Service Provider sie handhaben können. Dienstleister, die den SAP-Betrieb in Azure anbieten, können Kunden so den gesamten Aufwand vom Infrastruktur-Setup bis hin zur fertigen SAP-Systeminstallation abnehmen und damit tatsächlich das Versprechen von sehr kurzen Bereitstellungszeiten einlösen. Die All for One Group hat ein solches Angebot: Kunden können das Azure-Management inklusive SAP-Betrieb als Managed Service SAP on Azure beauftragen und brauchen sich damit nicht mehr selbst darum zu kümmern. Alternativ können sie die reine Beratung für das Azure-Setup einkaufen und später die Azure-Umgebung selbst betreiben und betreuen.

SAP S/4HANA unter realen Bedingungen testen – ohne Hardware-Beschaffung

Bis 2025 müssen alle SAP Systeme auf einer HANA-Datenbank betrieben werden, denn dann läuft der Support für reguläre SAP-System aus. Das setzt voraus, sich frühzeitig mit dem Einsatz von neuen In-Memory-Datenbanksystemen auseinanderzusetzen. Im Vergleich zu herkömmlichen Datenbanken haben diese höhere Anforderungen an die IT-Infrastruktur, etwa an die Performance oder Herstellervorgaben zu zertifizierter Hardware. Wer heute im Eigenbetrieb SAP on AnyDB betreibt und die Auswirkungen einer S/4HANA-Conversion unter realen Bedingungen erfahren möchte, für den kann kurzfristig eine temporäre Testumgebung dafür auf Azure aufgebaut werden. Das hat den entscheidenden Vorteil, dass dafür zunächst keine HANA-zertifizierte Hardware beschafft werden muss. Für den Testbereich wird ein Export des ERP-Systems vom Kunden angefordert bzw. von einem Berater durchgeführt, zu Azure transferiert, woraus dann das ERP on HANA aufgebaut wird. Danach läuft die S/4-Conversion mit anschließender Testphase. Schnittstellen können über diesen Weg zunächst nicht getestet werden bzw. erfordern eine zusätzliche manuelle Anbindung.

Damit schlägt man gleich zwei Fliegen mit einer Klappe: Man gewinnt wichtige Erkenntnisse aus der S/4-Conversion und kann gleichzeitig Azure kennenlernen. Ein solcher Testlauf verrät, mit welchem Aufwand bei einer Conversion tatsächlich zu rechnen ist. Denn es kann unter realistischen Bedingungen erprobt werden, wie das individuelle System als SAP S/4HANA funktioniert und wie Anwender letztendlich damit arbeiten können. Zum Abschluss erhält der Nutzer ein ausführliches Protokoll, in dem die Resultate aus dem Conversion-Projekt sinnvoll aufbereitet werden. Ein SAP S/4HANA-Transformationsprojekt kann so also auf einer fundierten Grundlage geplant werden.

Ausführliche Informationen zur S/4HANA-Conversion-Sandbox finden Sie auf dieser Webseite.

STB13_ShippingContainer_06_169

SAP in der Public Cloud: Produktivität und Wettbewerbsfähigkeit steigern. Ohne Kompromisse

Die Schmitz Cargobull AG gilt mit einer Jahresproduktion von mehr als 61.000 Fahrzeugen und etwa 6.400 Mitarbeitern als Europas führender Hersteller von Sattelaufliegern, Anhängern und Motorwagenaufbauten für temperierte Fracht, General Cargo sowie Schüttgüter. Im Zuge der digitalen Transformation plante das Unternehmen den Umzug seiner IT-Landschaft in die Cloud. Die schnelle und zuverlässige Migration der SAP-Systeme war dabei das klare Kernthema. Für das Migrationsprojekt war ein äußerst enger Zeitplan vorgegeben, der im September 2018 begann und Ende Dezember 2018 mit dem erfolgreichen Umzug durch Arvato Systems abgeschlossen wurde. Damit konnte die weltweite Produktion pünktlich zum 2. Januar 2019 starten.

Sehen Sie sich zu diesem Thema auch das Webinar „SAP on Azure Manufacturing Webinar: einfach in die Cloud migrieren – ein Praxisbeispiel“ am Dienstag, den 18. Juni, von 10:30-11:30 Uhr an.

Gerade in der Fertigungsbranche bietet die Auslagerung von SAP in die Public Cloud große Chancen, um Prozesse zu verschlanken und effizienter zu werden. Mit der konsequenten Digitalisierung von Produkten, Services, Produktion und Prozessen wollte auch Schmitz Cargobull seine Kunden für die Zukunft der Logistik befähigen, interne Prozesse optimieren und so seine Rolle als Innovationsführer für die gesamte Logistikkette ausbauen. Für den Umzug der SAP-Landschaft in die Cloud suchte das Unternehmen daher einen erfahrenen Partner, der zuverlässig und schnell agiert, die digitale Vision des Unternehmens versteht sowie die notwendige Stabilität für die täglichen Prozesse ebenso wie Agilität für künftige Anwendungen herstellen kann.

Die Experten von Arvato Systems ermöglichten einen reibungslosen Transfer der SAP-Systeme auf Azure, die Änderung der Datenbank von Oracle auf HANA/SyBase und den Release-Wechsel der Module im vorgegebenen Zeitrahmen. Schmitz Cargobull arbeitet nun auf hochverfügbaren SAP-Systemen, konnte hohe Hardware-Investitionen vermeiden und gewinnt an Flexibilität: Neben zehn Prozent geringeren Betriebskosten skalieren die Systeme nun bedarfsgerecht und können unkompliziert heruntergestuft oder aufgerüstet werden.

Was ist mit Sicherheit und Compliance?

Für viele Unternehmen scheinen Fragen der Sicherheit und Compliance bei einer Auslagerung in die Public Cloud aber nicht hinreichend geklärt. SAP-Migrationsexperte Arvato Systems erklärt in dem Webinar „SAP on Azure Manufacturing Webinar: einfach in die Cloud migrieren – ein Praxisbeispiel“ am Dienstag, den 18. Juni, von 10:30-11:30 Uhr daher detailliert, wie Sie von der der langjährigen Partnerschaft zwischen SAP und Microsoft profitieren und mit Ihrer eigenen Cloud-Strategie den Spagat zwischen Stabilität und Agilität meistern.

Die Themen des Webinars im Überblick:

  • Reibungsloser Transfer von SAP-Systemen aus den eigenen Rechenzentren in die Azure Cloud
  • Deutlich höhere Agilität und Flexibilität bei Betrieb und Nutzung von SAP bei gleichzeitig gesunkenen IT-Kosten
  • Finanzielle Flexibilität gewinnen dank der Migration in die Microsoft Cloud

Gewinnen Sie wertvolle Einblicke und erfahren Sie mehr über sichere und hoch skalierbare Cloud-Lösungen. Eine frühzeitige Anmeldung zum Webinar wird empfohlen.

CLO19_azureKinectDK_024_169

Mit Azure Security Center auch lokale Server vor Cyberangriffen schützen

Microsoft hat zum 9. Juli 2019 das Supportende für SQL Server 2008/2008 R2 und zum 14. Januar 2020 das Supportende für Windows Server 2008/2008 R2 angekündigt. Das bedeutet, dass ab dann für diese Server keine regelmäßigen Security-Updates mehr bereitgestellt werden* – was potenziell die Tür für Sicherheitsbedrohungen öffnet. Doch mit Nutzung von Azure Security Center lässt sich diese Tür selbst für lokale Server schnell erkennen und wieder schließen. Wir sehen uns an, was das Security Center ist und was es kann.

Azure Security Center ist ein Sicherheitsverwaltungssystem für Infrastrukturen. Seine Aufgabe ist es, den Sicherheitsstatus von Rechenzentren zu stärken und einen erweiterten Schutz vor Bedrohungen für hybride Workloads bereitzustellen, also nicht nur in der Cloud, sondern auch in der lokalen Umgebung. Da Security Center ein nativer Teil von Azure ist, werden zunächst PaaS-Dienste in Azure – z.B. Service Fabric, SQL-Datenbanken und Speicherkonten – mit Security Center überwacht und geschützt, ohne dass eine Bereitstellung erforderlich ist. Darüber hinaus werden aber auch Server und virtuelle Computer in der Cloud und lokal geschützt, die nicht zu Azure gehören. Dies ist sowohl für Windows- als auch für Linux-Server möglich, indem der Microsoft Monitoring Agent darauf installiert wird. Virtuelle Azure-Computer werden in Security Center automatisch bereitgestellt. Bei Security Center erhalten Nutzer außerdem standardmäßig eine native Integration in Windows Defender Advanced Threat Protection. Dies bedeutet, dass virtuelle Windows-Computer und -Server ohne Konfigurationsaufwand vollständig in die Empfehlungen und Bewertungen von Security Center integriert werden.

Gemeinsame Verantwortung

Dabei wird von der Prämisse ausgegangen, dass der Schutz von Ressourcen eine gemeinsame Aufgabe des Kunden und des Cloud-Anbieters ist (in diesem Fall Azure). Das heißt, Azure Security Center stellt Kunden die Tools zur Verfügung, die sie zum Absichern ihres Netzwerks, für den Schutz ihrer Dienste und das Sicherstellen des Sicherheitsstatus benötigen. Sie erhalten Unterstützung bei der Identifizierung und Durchführung von Aufgaben, die als bewährte Sicherheitsmethoden empfohlen werden, und implementieren diese dann für ihre Computer, Datendienste und Apps. Dies umfasst auch die Verwaltung und Durchsetzung von Sicherheitsrichtlinien sowie die Sicherstellung, dass die virtuellen Azure-Computer, Azure-externen Server und Azure PaaS-Dienste konform sind.

Konkret werden mit Security Center Tools für folgende Zwecke bereitgestellt:

  • Erhöhung des Sicherheitsstatus: Security Center bewertet die Umgebung, damit Kunden den Status ihrer Ressourcen verstehen. Sind sie sicher oder sind sie nicht sicher?
  • Schutz vor Bedrohungen: Security Center bewertet Workloads und löst Empfehlungen zur Vermeidung von Bedrohungen und Warnungen zur Bedrohungserkennung aus.
  • Schnellerer Aufbau des Schutzes: In Security Center werden alle Vorgänge mit Cloud-Geschwindigkeit durchgeführt. Aufgrund der nativen Integration ist die Bereitstellung von Security Center einfach, und Kunden erhalten eine automatische Bereitstellung und den Schutz durch Azure-Dienste.

Wer ein solches noch nicht hat, kann sich hier ein kostenfreies Testkonto anlegen lassen. Nachdem Kunden ihre Azure-Abonnements integriert haben, können sie Security Center für Ressourcen aktivieren, die außerhalb von Azure ausgeführt werden, wie etwa lokale Ressourcen oder Ressourcen in anderen Clouds, indem sie den Microsoft Monitoring Agent bereitstellen. Informationen zum Einbinden von Windows-Computern in Azure Security Center bietet diese Webseite.

Damit die Basis stimmt: Was Kunden jetzt tun können

Kunden, die darüber nachdenken, das Supportende von SQL Server 2008/2008 R2 und Windows Server 2008/2008 R2 zum Anlass zu nehmen, ihre Workloads in die Cloud zu verlagern, können das Ganze mit dem Tool Azure Migrate nicht nur kostenfrei testen, sondern erhalten auch einen Überblick über die technischen Voraussetzungen und die voraussichtlichen Kosten des Betriebs virtueller Server. Eine weitere empfehlenswerte Ressource in diesem Zusammenhang ist das Microsoft Cloud Adoption Framework für Azure. Zwar bietet die Cloud Unternehmen eine enorme Flexibilität hinsichtlich ihrer Infrastruktur. Doch damit die Einführung von Cloud-Technologien nachhaltig gelingt, ist eine bewährte und konsistente Strategie erforderlich. Denn tatsächlich beginnt eine erfolgreiche Cloud-Einführung schon lange vor der Auswahl eines Cloud-Plattformanbieters. Das Cloud Adoption Framework hilft, Strategien für Business, Kultur und technischen Wandel aufeinander abzustimmen, um die gewünschten Geschäftsergebnisse zu erzielen. Allgemeine Informationen zu den Herausforderungen und Lösungsmöglichkeiten im Zusammenhang mit dem Ende des Supports für SQL Server 2008/2008 R2 und Windows Server 2008/2008 R2 bietet auch in diese Webcast-Aufzeichnung vom 14. Mai 2019.

*Unabhängig von Azure Security Center werden für Windows 2008/R2 und SQL Server 2008/R2 VMs, die auf Azure betrieben werden, die notwendigen Extended Security Updates, die zum Schließen möglicher erkannter Sicherheitslücken benötigt werden, für die nächsten 3 Jahre kostenfrei zur Verfügung gestellt. Weitere Information zum Supportende erhalten Sie auf dieser Website.

2019-05-29_e.SIC-Kanalinspection_Image3(Heise-online_DE_169

KI durchdringt selbst unterirdische Sphären

Deutschland verfügt über ein äußerst gut ausgebautes öffentliches Kanalnetz. Die Instandhaltung dieser enormen Infrastruktur verursacht entsprechend hohe Kosten, zumal die Inspektionen aufwendig und fehleranfällig sind. Die Kanalinspektions-Module von e.SIC bieten eine ganzheitliche Lösung für den gesamten Inspektionsprozess. Mithilfe von Cloud-Technologie, 3D-Visualisierung und KI-basierter Schadensdetektion lassen sich die notwendigen Aufgaben effizient und wirtschaftlich erledigen. Darüber hinaus können die dabei erhobenen Daten einheitlicher, sicherer und leichter zugänglich gespeichert werden.

Was denken Sie, wie hoch der Aufwand bei der Kanalisationsinspektion in der Bundesrepublik ist? Ein einfacher Vergleich: Der Äquatorumfang beträgt etwa 40.000 km, die Entfernung zwischen Erde und Mond durchschnittlich 385.000 km. Das ist fast schon gering, wenn man sich anschaut, welches Ausmaß das öffentliche Kanalnetz erreicht: Es umfasst schlappe 575.000 km! Auch wenn sich die Wenigsten wohl mit dieser Thematik beschäftigen, sollte man sich ihre Bedeutung schon bewusst machen, denn die Kanalisation bildet das Fundament jeder Stadt Deutschlands. Als unsichtbare Infrastruktur nimmt man sie jedoch meist hin wie den Strom aus der Steckdose oder sauberes Trinkwasser aus der Leitung. Doch ein solch modernes Netz ist keine Selbstverständlichkeit. Für die bislang kostenintensive Instandhaltung hat die e.sigma Technology GmbH eine Lösung entwickelt, die dank moderner Technologien mit großem Einsparungspotenzial aufwartet.

„Verdeckte“ Kosten

Der Wiederbeschaffungswert der öffentlichen Kanalnetze wird auf rund 630 Milliarden Euro geschätzt. Damit stellen sie die größten Anlagewerte von deutschen Städten und Gemeinden dar. Zum Erhalt dieses Vermögens ist eine nachhaltige und systematische Bewirtschaftung notwendig. Darum sind regelmäßige Inspektionen unumgänglich und vom Gesetzgeber auch in Intervallen von zehn Jahren vorgegeben. Angesichts der Länge des Kanalnetzes und der Intensität bzw. Dauer der Inspektionsprozesse ist das eine extreme Herausforderung, die mit herkömmlichen Methoden nur suboptimal umsetzbar ist.

Derzeit sind die Kanalinspektionsprozesse veraltet, langwierig und aufwendig. Schäden müssen manuell gesichtet werden und werden dadurch oftmals übersehen, falsch bewertet oder klassifiziert. Laut einer Studie* werden sogar 55 Prozent der gefundenen und klassifizierten Schäden im Wiederholungsfalle abweichend bewertet.

Das zeigt, wie anfällig die bisherigen Abläufe für menschliche Fehleinschätzungen sind. Und das bringt dramatische Folgen mit sich, denn so sind Reparaturen schlechter zu planen, schlimmere Spätfolgen und unnötige Kosten möglich. Um all dies zu vermeiden, hat e.sigma Technology eine sinnvolle Lösung auf Basis moderner Technologien entwickelt.

KI-basierte Schadensdetektion

Die cloudbasierte Serviceplattform e.SIC bietet Module für die Kanalinspektion und stellt einen ganzheitlichen Ansatz zur Optimierung der Instandhaltungsprozesse dar. Durch KI-basierte Schadensdetektion, leistungsstarkes Datenmanagement in Microsoft Azure und benutzerfreundliche Tools werden Prozesse vereinfacht und beschleunigt und damit Kosten gesenkt. Mit dem e.SIC Viewer können Kanäle und Schäden inspiziert sowie mittels 3D-Visualisierung genauer dargestellt und dadurch effizienter bewertet werden. Der damit verringerte Aufwand birgt ein großes Einsparpotenzial. Zusätzlich werden durch KI-basierte Schadensdetektion und Deep Learning Schäden automatisiert erkannt und anhand hinterlegter Kriterien klassifiziert. Im Ergebnis kann die manuelle Überprüfung auf wenige verbliebene Bereiche beschränkt werden.

Darüber hinaus können Daten, Videos und Aufzeichnungen in Microsoft Azure sicher verwahrt werden. So sind sie stets ohne Zeitverzögerung verfügbar und können umgehend und ortsunabhängig bearbeitet werden. Auch die Zusammenarbeit mit externen Partnern und Dienstleistern wird maßgeblich verbessert. Integrierte Tools wie Microsoft Teams ermöglichen außerdem eine schnelle und reibungslose Kommunikation mit allen beteiligten Personen sowie eine flexible Arbeitsplatzgestaltung.

Die e.sigma Technology stellt ein gutes Beispiel dar für den geschickten Einsatz verschiedener Technologien, die ineinandergreifen, um in diesem Spezialgebiet einen Teil der Arbeitsschritte zu reduzieren, andere zu beschleunigen oder zu verbessern. Die Plattform e.SIC ermöglicht dabei durch Cloud-Bereitstellung und sichere Datenübertragung ein einfaches Datenmanagement, unterstützt die interne und externe Auftragsvergabe, verringert durch Automation den Arbeitsaufwand und ist dabei weniger anfällig für Fehler – und dafür ist nicht einmal teure Hardware erforderlich.

e.SIC kann überall dort eingesetzt werden, wo in komplexen Prozessketten große Datenmengen bewegt werden und ortsunabhängig verfügbar sein sollen. Mit speziellen Modulen kann außerdem eine Vielzahl von inspektionsbasierten Prozessen und Services effizient dargestellt und verwaltet werden.

* Müller K., Fischer B., Lehmann T., Hunger W., Schäfer T., Forschungsprojekt Bilderkennung bi UmweltBau 5/06

MSC17_dataCenter_025_169

Das eigene Rechenzentrum HANA-ready machen

SAP stellt im Jahr 2025 den Support ihres Standard ERP-Systems ein. Dieser Umstand treibt momentan fast alle SAP-Kunden an. Die bestehenden SAP-Systeme müssen aufgrund der neuen Technologien (S/4HANA) mit aufwendigen Anpassungen, sowohl in den Prozessstrukturen als auch im Code, migriert werden. Da dies für viele Kunden ein großes Unterfangen darstellt, sollte das Betriebsmodell dieser neuen Lösungen unter die Lupe genommen werden. Ein Artikel von Guido Vanhoefen, Team Leader Cloud Infrastructure bei der Scheer GmbH.

Um das eigene Rechenzentrum „HANA-ready“ zu machen, bedarf es oftmals sehr großer Investitionen, etwa in Hardware. Dies ist nur einer der Gründe – wenn auch ein bedeutender – dass das Betriebsmodell Cloud-Plattform in der objektiven Analyse an Bedeutung gewinnt.

„Wir erhalten augenblicklich viele Anfragen von Unternehmen, die abwägen, in welcher Form sie auf das Supportende des Standard-ERP-Systems reagieren sollen. Das Ergebnis vieler eingehender Beratungen ist, dass die Migration in die Cloud nicht nur kurzfristig mit weniger Aufwand und Kosten verbunden ist, sondern auch langfristig die Zukunftsfähigkeit sichert,“ berichtet Oliver Hafner, Unit Leader SAP Application Operations bei der Scheer GmbH.

Scheer bietet ihren Kunden daher eine ganzheitliche Unterstützung auf dem Weg zu SAP S/4HANA an. Dabei bauen sie auf ausgereifte eigene Vorgehensmodelle, Methoden und Lösungen, ebenso wie auf fundiertes Branchen- und Prozess-Know-how.

Mit Assessment zu ganzheitlicher Unterstützung

Die Frage, wie man am besten nach Azure migriert, lässt sich nicht pauschal beantworten. Die Antwort hängt von vielen Faktoren ab, die Scheer mit seinen Kunden in einem S/4HANA Assessment entsprechend detailliert beleuchtet. Tatsache ist, dass die IT-Infrastruktur von Unternehmen immer komplexer und anspruchsvoller wird. Die Inbetriebnahme und Wartung von moderner Hardware und Software erfordern viel Know-how und weitreichende Investitionen. Gleichzeitig ist die Sicherheit von sensiblen Unternehmensdaten, speziell im Zeitalter der DSGVO, höchstes Gebot. Die dauerhafte Verfügbarkeit sowie eine stets aktuelle Software stellen wichtige Komponenten für den Unternehmensalltag dar. Microsoft stellt mit Azure eine ideale Cloud-Plattform für neueste SAP-Lösungen bereit. Bei maximaler Performance und höchsten Sicherheitsstandards bietet Azure Hochverfügbarkeit, Flexibilität und Skalierbarkeit der Systeme. Durch den globalen Zugriff auf die Systeme können Unternehmen ihre Innovationskraft und Produktivität deutlich steigern.

In einem konkreten Anwendungsfall bei Scheer hat ein Kunde seine IT-Landschaft on-premise bereits auf der HANA-Datenbank betrieben. Der Wunsch nach eben jener flexiblen Skalierbarkeit, höherer Sicherheit und schneller Hardware-Beschaffung im Bedarfsfall hat jedoch dazu geführt, dass der Kunde sein Betriebsmodell auf die Cloud-Plattform umgestellt hat. Die Migration nach Azure basierte dabei auf dem Einsatz von Azure Site Recovery zur Migration der virtualisierten SAP Application Server (VMware vSphere) und dem Neuaufbau der HANA-Maschinen in Azure (M-Series). Die HANA-Datenbanken wurden während einer Downtime per Import/Export migriert, gleichzeitig wurden die physikalischen HANA-Server durch die Migration nach Azure virtualisiert, was Snapshots/Cloning (für bspw. Systemkopien) ermöglichte. Die Azure Site Recovery-Funktionalität garantiert eine möglichst kurze Downtime bei der Migration von virtuellen Maschinen, da auf der vSphere-Plattform on-premise eine Azure Site Recovery Appliance (Configuration/Process-Server) bereitgestellt wird. Sie repliziert einzelne Virtual Machines (VMs) im laufenden Betrieb in einen Storage Account im Azure Datacenter und erstellt daraus beim Failover entsprechende virtuelle Maschinen. Die Server für die HANA-Datenbanken wurden gänzlich neu bereitgestellt.

Aufbau eines HANA Servers auf Azure

Beim Aufbau einer HANA Servers auf Azure muss vor allem die Storage-Konfiguration beachtet werden. Eine virtuelle HANA wird generell mit Azure Managed Disks bereitgestellt. Um die von SAP vorgegebenen Werte (SAPS) für den Durchsatz von /hana/log und /hana/data zu erreichen, müssen für diese Datenträger mehrere virtuelle Datenträger (Premium SSD) zu einem RAID 0 zusammengefügt werden (z.B. via MDADM oder LVM).

Die Empfehlung lautet hier:

64 KB oder 128 KB für /hana/data
32 KB für /hana/log

Des Weiteren sollten folgende Caching-Konfigurationen gewählt werden:

  • /hana/data – kein Caching
  • /hana/log – kein Caching – Ausnahme bei M-Series VMs (hier muss die Schreibbeschleunigung aktiviert werden)
  • /hana/shared – Lese-caching

Wie Sie die Azure-Infrastruktur konfigurieren und SAP HANA-Systeme betreiben, die auf nativen virtuellen Azure-Computern bereitgestellt werden, wird in diesem Artikel ausführlich beschrieben. Der Artikel enthält auch Informationen zur Konfiguration für die horizontale SAP HANA-Skalierung für die VM-SKU M128s.

Das S/4HANA Assessment bei Scheer

Für die Unterstützung ihrer Kunden bei der Migration ihrer SAP-Landschaften auf die aktuellen Standards (S/4HANA) hat Scheer ein standardisiertes S/4 HANA Assessment entwickelt. Dabei werden verschiedene Transformationsvorgehen und Implementierungsansätze gegenübergestellt:

Der einzuschlagende Weg hin zu S/4HANA hängt, wie in der Grafik dargestellt, stark auch vom Ist-Zustand ab. Ist keine SAP-Landschaft beim Kunden vorzufinden, wird der Greenfield-Ansatz gewählt, also die ganz neue Implementierung. Ist eine bestehende SAP-Landschaft vorhanden und die vorhandenen Ressourcen im eigenen Rechenzentrum sind HANA-ready, kann durch eine System Conversion der Brownfield-Ansatz angewandt werden, also die Eingliederung neuer Software in das vorhandene System. Wenn es Sinn ergibt, die komplette SAP-Landschaft neu zu bewerten, zu verschlanken und zu vereinfachen, wird mit einer Landscape Transformation der Bluefield-Ansatz durchgeführt, also die Migration und Aktualisierung der vorhandenen Landschaft. Alle Ansätze können eine Änderung des Betriebsmodells (on-premise / hybrid / Cloud) beinhalten.

Weiter werden Handlungsempfehlungen in Bezug auf Themen wie Custom Code, Modifikationen, Berechtigungskonzepte, SAP Add-ons und Schnittstellen gegeben und eine Nutzenermittlung von S/4HANA für die Fachbereiche und die IT ausgearbeitet. Wichtig ist, dass gemeinsam mit dem Kunden eine Auflistung aller notwendigen Schritte erstellt wird, um die bestehenden SAP-Systeme „S/4HANA-ready“ zu machen, inklusive der Vorgehensweise bei der Datenbankmigration von anyDB auf die SAP HANA Platform/HANA DB.

Unter Berücksichtigung der individuellen Ausgangssituation, der strategischen Unternehmensziele und der definierten Geschäftsanforderungen entwickelt Scheer auf Basis vordefinierter S/4HANA-Einführungsszenarien eine jeweils individuelle S/4HANA Roadmap und setzt diese mit dem Kunden gemeinsam unter Verwendung etablierter Methoden um. Dabei unterstützt Scheer auch bei der Entscheidungsfindung, ob die SAP S/4HANA-Systeme in der Cloud, on-premise oder als Hybrid-Architektur implementiert und betrieben werden sollen.

Das Scheer S/4HANA Assessment schließt mit der Budgetaufstellung für das komplette Projekt (inkl. Lizenzen und Implementierung) und einer Ergebnispräsentation mit Meilensteinplan für den Wechsel auf S/4HANA.

Was noch für den Wechsel des Betriebsmodells spricht

Auch andere Geschäftsanforderungen können dafür sorgen, dass das bestehende Betriebsmodell infrage gestellt werden muss, um nachhaltig erfolgreich zu sein. Die Anforderung, Kreditkarteninformationen zu verarbeiten, sorgte bei einem anderen Kunden beispielsweise dafür, dass für die bestehende SAP-Landschaft eine PCI-DSS Konformität hergestellt werden musste. Die Umsetzung dieses Standards erforderte nach Business-Case-Rechnung eine exorbitante Investition in das bestehende Rechenzentrum. Abhilfe schaffte in diesem Fall die Migration der kompletten SAP-Landschaft nach Microsoft Azure, da die Azure-Rechenzentren den PCI-DSS Standard erfüllen. Für den Kunden bedeutete das nicht nur eine deutliche Kostenersparnis, sondern auch langfristig eine Reduzierung des Administrationsaufwands sowie die Sicherung seiner Zukunftsfähigkeit aufgrund der großen Flexibilität und Skalierbarkeit.