Mehrwert verteilter Datenumgebungen
Aufgrund zahlreicher Cloud-Transformationsprojekte ergibt sich für Unternehmen die Notwendigkeit, ein konsistentes Datenmanagement zu entwickeln.
Wie das mit einem Data-Fabric-Ansatz funktioniert, lässt sich anhand von SAP-Backups und Restore in der Cloud zeigen. SAP-Bestandskunden sollten ihre Daten kontinuierlich schützen, um den Betrieb aufrechtzuerhalten.
Dabei stellen Enterprise Applications hohe Ansprüche an Hochverfügbarkeit, Sicherheit und Performance – und zwar unabhängig davon, in welcher Umgebung sie laufen.
Jene Anforderungen hat das Datenmanagement zu erfüllen. Diese Aufgabe wird jedoch komplexer. Denn auf die Agenda rückt immer mehr, sich auf eine Cloud-Zukunft vorzubereiten.
Der Schritt in die digitale Wolke drängt sich noch aus weiteren Gründen auf: So zeichnet sich die Tendenz ab, dass auch Enterprise Applications sukzessive in die Cloud wandern.
Die Walldorfer verfolgen eine Cloud- First-Strategie und bieten viele Produkte oder neue Funktionen nur noch in der Cloud an. Doch ohne Cloud-Speicher wird das sinnvolle Anwenden von IoT, Big Data, Machine Learning und KI kaum möglich sein.
Denn Sensoren beziehungsweise Maschinen produzieren innerhalb kürzester Zeit riesige Mengen an Daten. Dadurch wächst das Datenvolumen exponentiell. Mit dieser Flut umzugehen, ist schwierig.
Lokale Speichersysteme sind dem nicht mehr gewachsen. Als Ergänzung zur Cloud kommt zudem Edge Computing für IoT-Szenarien ins Spiel. Diese Systeme filtern und analysieren Daten direkt am Entstehungsort, bevor sie die Ergebnisse in die Cloud übertragen.
Wer sich also wettbewerbsfähig aufstellen will, sollte sich mit dem Gedanken auseinandersetzen, künftig eine verteilte Infrastruktur zu betreiben. Als bevorzugtes Modell kristallisiert sich dabei zunehmend die hybride Multicloud heraus, also eine Mischung aus verschiedenen Public Cloud Services, Private Cloud und lokalen Systemen.
So haben Unternehmen die Möglichkeit, sich aus allen Optionen für jeden Anwendungsfall die jeweils beste Lösung herauszusuchen. IDC prognostiziert, dass bis 2024 etwa 90 Prozent der weltweiten Unternehmen eine Multicloud-Managementstrategie haben werden.
SAP in die Cloud migrieren
Bisher erfolgt der Umzug von SAP-Systemen in die Cloud meist schrittweise. Viele Unternehmen verlagern zunächst das Backup in die Cloud. Das ermöglicht es ihnen, erste Erfahrungen zu sammeln und die Infrastruktur für eine spätere Verlagerung der Produktiv-Systeme vorzubereiten.
Außerdem streben die Unternehmen an, die agile, flexible Umgebung für Entwicklung und Testing zu nutzen, um so neue Projekte schneller umzusetzen. Ihr Plan sieht vor, die Workloads dann wieder zurück On-premises zu verschieben, wenn sie produktiv gehen. Allerdings lässt sich dieses Vorhaben mit traditionellen Mitteln nicht realisieren.
Vermeiden lässt sich der damit verbundene Aufwand, wenn Unternehmen einen Data-Fabric-Ansatz nutzen. Dieser befähigt zu einem reibungslosen Zugriff und Austausch von Daten in einer verteilten Datenumgebung.
Denn die Data Fabric schafft ein einheitliches und konsistentes Datenmanagement, das von On-premises bis in die Cloud greift. Nicht umsonst erklärte das Analystenhaus Gartner die Data Fabric als einen der wichtigsten Technologie-Trends für 2019.
Für SAP-Anwender bedeutet das: Sie können ihre SAP-Systeme in die Cloud migrieren, ohne dass sich das bekannte Betriebskonzept ändert. Denn das Datenmanagement funktioniert mit einer Data Fabric in der Cloud identisch wie On-premises.
Auch in einer heterogenen IT-Landschaft stehen Daten damit jederzeit dort in der geforderten Geschwindigkeit zur Verfügung, wo sie gebraucht werden – unabhängig davon, wo sie herkommen.
So gewinnen Unternehmen die Flexibilität, die sie brauchen, um Workloads ganz nach Bedarf zwischen verschiedenen Umgebungen hin und her zu verschieben. Anbieter wie NetApp verfolgen dieses Konzept bereits seit einigen Jahren.
In Kombination mit den Cloud-Connected-Flash-Lösungen erhalten Anwender vieles, was sie auf dem Weg in die Cloud brauchen: einfache Bedienbarkeit, Hochverfügbarkeit, Agilität und hohe Performance.
Hana-Backups
Laufen nun Enterprise Applications in der Cloud, muss eine hohe Ausfallsicherheit in der Cloud genauso gewährleistet sein wie im eigenen Rechenzentrum. Das erfordert unter anderem ein schnelles Backup und einen raschen Restore. Gerade bei großen Datenbank-Umgebungen wie SAP Hana ist das schwer umzusetzen.
Traditionelle Ansätze wie Streaming-Backup oder die Sicherung auf Tape sind nicht effizient genug für unternehmenskritische Daten. Üblicherweise muss man bei einer Hana-Sicherung ein Full-Backup erstellen.
Bei großen Datenbanken und meist limitierten Bandbreiten dauert das Stunden. Daher können in der Regel nur ein oder zwei Backups pro Tag erstellt werden – das ist viel zu wenig für geschäftskritische Systeme.
Mit einem Snapshot-basierten Backup lassen sich Datenbank-Backups dagegen innerhalb von Sekunden erstellen und im System speichern, ohne dass dabei die Performance der Datenbank beeinträchtigt wird.
Die Schnelligkeit lässt sich erzielen, weil die Backups im Storage angefertigt werden und so keine Server-Ressourcen verbrauchen. Dadurch sind ausreichende Backups in kurzen Abständen pro Tag möglich. Auch die Wiederherstellung anhand eines Snapshots erfolgt innerhalb kürzester Zeit.
Disaster Recovery in hybriden Landschaften
Doch das Backup ist nur der erste Schritt, um Daten in SAP-Systemen zu schützen. Eine besondere Herausforderung stellt auch Disaster Recovery in verteilten Umgebungen dar. Denn gibt es mit dem ganzen Rechenzentrum Probleme, müssen Unternehmen in der Lage sein, die Backups wiederherzustellen.
Es geht hierbei nicht nur darum, keine Daten zu verlieren. Die Daten müssen bei der Wiederherstellung auch zusammenpassen, sonst funktionieren Prozesse in den Enterprise-Applikationen nicht mehr. Das heißt, Daten, die über verschiedene Systeme verteilt sind, müssen konsistent zum gleichen Zeitpunkt gesichert werden – und zwar über Rechenzentrums- und Cloud-Grenzen hinweg.
Eine Lösungsmöglichkeit sind sogenannte Consistency Groups. Alle Systeme, die zusammenarbeiten, werden in einer solchen Gruppe zusammengefasst und in einem gemeinsamen Backup-Plan gesichert.
Das Backup erfolgt automatisiert synchron zum selben Zeitpunkt. Fällt ein System einmal aus, kann überall gleichzeitig derselbe Datenstand wieder eingespielt werden, sodass Konsistenz gewährleistet ist.
Mit automatisiertem Cloning lassen sich Testumgebungen auf Knopfdruck innerhalb von Minuten bereitstellen. Dank des Data-Fabric-Konzepts sind Unternehmen dabei flexibel über die Cloud-Grenzen hinweg.
Sie können ein SAP-System zum Beispiel in AWS klonen und in weniger als zehn Minuten in Azure zur Verfügung stellen. Mit der Data Fabric stellen sie sich perfekt auf neue Technologien und das damit verbundene Datenwachstum sowie die Cloud- First-Strategie von SAP ein. Sicher erscheint, dass wir zukünftig vor allem hybride Multicloud-Umgebungen in der Unternehmens-IT erleben werden.
Technische Maßnahmen für den Cloud-Betrieb
Systeme in die Cloud zu migrieren oder wieder zurück zu verschieben, kann technisch mit erheblichem Aufwand verbunden sein. Die meisten Unternehmen betreiben ihre SAP-Systeme heute mit Enterprise Storage. Dabei setzen sie entweder ein Storage Area Network (SAN)/iSCSI-Blockspeicher ein oder Network Attached Storage (NAS) mit dem Network File System (NFS). In der Cloud ist das Fibre-Channel-Protokoll in Kombination mit NetApp nicht vorgesehen. Bei der Umstellung auf klassischen Cloud-Speicher wie Elastic Block Store (EBS) von AWS oder Azure SSD Managed Disks (Premium Disks) müssen IT-Verantwortliche daher die SAP-Systemkonfiguration beim Cloud Provider anpassen. Auch im Betrieb gibt es gravierende Änderungen. Denn Hochverfügbarkeit für EBS oder Premium Disks stellt man mit mehreren – typischerweise drei – redundanten Kopien her. Dabei ist es häufig nötig, diese Premium Disks mithilfe der Logical-Volume-Manager-Striping-Technologie zu kombinieren, um die Kapazitäts- oder Leistungsanforderungen zu erfüllen. Das wirkt sich auf die Verwaltung der Speichersysteme aus, zum Beispiel wenn es um Backup, Tuning oder Größenanpassung geht. Die Alternative ist die Data Fabric, um Migration und Betrieb deutlich zu vereinfachen. Dieser Ansatz vereinheitlicht das Datenmanagement und sorgt für nahtlosen Datentransfer zwischen Daten On-premises, in der Private Cloud oder in Public Cloud Services.