Wolkenkuckucksheim oder Himmel auf Erden?
Der Run auf die öffentliche Cloud ist in vollem Gange – auch im DACH-Markt.
Keine Frage: Die öffentliche Cloud hat einen neuen Standard in Sachen IT gesetzt. Skalierbarkeit, Automatisierung, Standardisierung und bedarfsorientierte Nutzung heißen die neuen Imperative.
In all diesen Punkten ist die Wolke traditionellen Rechenzentrumsinfrastrukturen überlegen.
Schlimmer noch: Die eigenen Kollegen erwarten von der IT dasselbe wie von ihren eigenen Cloud-Anbietern im privaten Umfeld. In der Folge wächst die Schatten-IT und leidet der eigene Ruf bei Geschäftsleitung und Anwendern.
Das Erfolgsrezept von einst, speziell von SAP-Bestandskunden, nämlich perfekt aufeinander abgestimmte Systeme und Infrastrukturkomponenten, individuell angepasste Kernlösungen für ERP und zahlreiche Integrationen zu weiteren Unternehmenslösungen wie CRM, scheinen zum Hemmschuh zu werden.
Denn die digitale Transformation bedeutet im Rechenzentrum, neue Dienste und Applikationen flexibel und vor allem schnell den Anwendern zur Verfügung zu stellen, aber auch die Endkunden in die digitale Wertschöpfungskette einzubeziehen.
An diesem Dilemma ändern auch die technischen Fortschritte der 2000er-Jahre wie All-Flash-Arrays im Speicherbereich oder die Virtualisierung der Server wenig bis nichts. Denn auch hier sind die Grenzen hinsichtlich Skalierbarkeit, Flexibilität, Komplexität und vor allem Kosten immer noch zu starr.
Aus diesem Grund sind die bekannten Cloud-Größen wie Amazon, Facebook oder Google von Anfang an andere Wege gegangen und steuern ihre eigenen Rechenzentren allein durch Software.
Das senkt die Abhängigkeit von und vor allem die Kosten für Hardware massiv, ermöglicht eine lineare Skalierbarkeit und verkürzt die Implementierungszeiten für neue Services radikal.
Was läge also näher, als das Angebot von etablierten Cloud-Anbietern anzunehmen und deren Infrastruktur für die eigene Umgebung zu nutzen?
Was so einfach klingt, erweist sich bei näherem Hinsehen als weitaus komplizierter. Crisp Research hat hier insbesondere drei Hürden ausgemacht: Komplexität, Kosten und Compliance.
Dazu Carlo Velten:
„Die Komplexität von Unternehmensumgebungen verschwindet nicht einfach in der Cloud, sondern muss dort eingekauft und verwaltet werden.
Oftmals bleiben mangels Wissen und Ressourcen Automatisierungspotenziale ungenutzt und werden zu große Kapazitäten vorgehalten, weil der wirkliche Bedarf nur schwer vorhergesagt werden kann.
All das führt zu höheren Kosten und weniger Agilität als erhofft.“
Bleiben noch die rechtlichen Unwägbarkeiten durch unterschiedliche lokale Regelungen hinsichtlich Datenschutz oder ihres Bestands vor hohen Gerichten. So könnte zum Beispiel den mühsam ausgehandelten Privacy Shield das gleiche Schicksal ereilen wie seinen Vorgänger Safe Harbor.
Dennoch benötigen die Unternehmen eine, wie Velten es nennt, „digitale Infrastrukturplattform“.
Diese muss die vier bereits genannten Charakteristika der Skalierbarkeit, Automatisierung, Standardisierung und bedarfsorientierte Nutzung auch im unternehmenseigenen Rechenzentrum aufweisen.
Denn die modernen Applikationen werden immer häufiger von Anfang an für die Cloud programmiert und nutzen aktuelle Technologien wie Virtualisierung oder Container. Zudem sind sie in vielen Fällen dafür konzipiert, über Web dem Endkunden zur Verfügung gestellt zu werden.
Nach Einschätzung von Nutanix erfordert im Schnitt jedoch nur ein Viertel aller Workloads in den Unternehmen so viel Elastizität, dass für ihren Betrieb öffentliche Cloud–Infrastrukturen absolut notwendig sind.
Die überwiegende Mehrheit der Unternehmensanwendungen lässt sich also durchaus auch weiterhin im eigenen Rechenzentrum bereitstellen – vorausgesetzt, die dortige Infrastruktur folgt dem Cloud-Paradigma.
Klassische Three-Tier-Architekturen sind hierfür immer weniger geeignet. Denn obwohl es damit heute möglich ist, eine virtuelle Maschine innerhalb von Minuten zu implementieren, dauert die entsprechende Provisionierung auf Storage- oder Netzwerkebene Tage oder Wochen.
Probleme mit der Interoperabilität zwischen verschiedenen Speicherplattformen und die Notwendigkeit, aus Performancegründen lieber mehr als weniger Ressourcen vorzuhalten, begünstigen die Bildung von IT-Silos im Rechenzentrum.
Diese erschweren die gemeinsame Nutzung von Ressourcen und machen sie mitunter sogar unmöglich.
Enterprise Clouds als Lösung
Nutanix und Lenovo bieten eine Lösung, die das Cloud-Paradigma im eigenen Rechenzentrum realisiert und die Grenzen klassischer Infrastrukturen überwindet.
Nutanix steht für die Softwaresteuerung der Infrastrukturkomponenten und beseitigt die Hürden zwischen privater und öffentlicher Cloud, während Lenovo mit seiner HX-Serie die dazu passenden Appliances beisteuert.
Mit seiner zentralen Managementkonsole macht Nutanix die Infrastruktur für den Administrator von der Hardware bis zum Hypervisor gleichsam unsichtbar, sodass die IT die Freiheit hat, sich um Dienste und Applikationen zu kümmern.
Sie wird aus Anwendersicht so schnell und „cool“ wie öffentliche Cloud-Angebote, behält aber die volle Kontrolle und Datensouveränität.
Wo nötig und gerechtfertigt, lässt sich die öffentliche Cloud flexibel einbinden, eine echte Enterprise Cloud entsteht.
Laut SAP wird die Zukunft der IT hybrid oder bimodal sein. Mit der Enterprise Cloud von Nutanix auf Lenovo Appliances ist diese Zukunft für SAP-Bestandskunden schon Realität.
Das ist noch nicht der Himmel auf Erden, aber eine echte Lösung für reale Probleme.