Cloud is here to stay Die eigene Cloud rechnet sich!

Autor / Redakteur: Jürgen Krebs* / Florian Karlstetter

Jedes Unternehmen nutzt Cloud-Speicher: offiziell oder im Verborgenen! Wer diese These heute in einem Raum voller CIOs und IT-Verantwortlicher äußert, wird mit hoher Wahrscheinlichkeit bei einigen Teilnehmern ein gewisses Unbehagen beobachten, aber nicht mehr mit Widerspruch rechnen müssen.

Anbieter zum Thema

Jürgen Krebs von Hitachi Vantara über die Vorteile moderner Cloud-Storage-Plattformen.
Jürgen Krebs von Hitachi Vantara über die Vorteile moderner Cloud-Storage-Plattformen.
(Bild: gemeinfrei (stevepb / pixabay) / CC0 )

Selbst Unternehmen, die Cloud-Speicherung nicht offiziell als Teil ihrer IT-Strategie erlauben, beobachten, wie ihre Mitarbeiter Dienste wie Dropbox, Google Drive oder One Drive und vergleichbare Lösungen aus dem privaten Bereich auch beruflich nutzen. Dies geschieht oft ohne Wissen der Verantwortlichen als so genannte Schatten-IT.

Der Grund dafür liegt in der unkomplizierten und flexiblen Handhabung sowie den geringen Kosten der Lösungen. Wer nach Feierabend oder am Wochenende an seinem Projekt weiterarbeiten möchte, schiebt die benötigten Unterlagen einfach via Webbrowser in „seine” Dropbox: Diese synchronisiert automatisch mit dem Heim-PC und erstellt auf diese Weise gleich zwei unautorisierte Kopien – unsichtbar und unkontrollierbar für die interne IT.

Dieses Vorgehen ist für die Verantwortlichen zwar unangenehm, aber aus Sicht der Mitarbeiter pragmatisch und nachvollziehbar. Die viel zitierte Generation der „Digital Natives“, die seit Jahren Einzug in die Unternehmen hält, ist mit Smartphones und Web-Applikationen groß geworden. Wer aber bei Amazon mit einem Klick einkauft und zu Hause seine wertvollsten Daten in der Cloud speichert, ist nicht mehr bereit, sich mit kryptischen Dokumenten-Plattformen und schwer zu erreichenden Netzlaufwerken abzugeben.

Die Cloud hat zahlreiche Vorteile – und gravierende Nachteile

Es gibt zahlreiche Gründe, die für den Einsatz von Cloud-Speicher im Unternehmen sprechen: Er ist flexibel, grenzenlos skalierbar, gut verfügbar, benötigt keine klassische Datensicherung und kostet zunächst recht wenig. In der Regel werden drei Kopien der Daten an unterschiedlichen Standorten vorgehalten, was den Verlust der Daten praktisch ausschließt. Hinzu kommen gestaffelte Kosten für Zugriffe auf diese Daten. Vordergründig ein guter Deal: Die Daten sind sicher, es kann praktisch von überall auf sie zugegriffen werden und das Handling ist einfach.

Dem stehen bei einer Storage-Plattform im eigenen Rechenzentrum die Anschaffungskosten zuzüglich Kosten für Administration und Wartung gegenüber. Bei der Hitachi Virtual Storage Platform (VSP) beispielsweise entstehen für ein großes Unternehmen, das Daten im Bereich mehrerer Terabyte verwaltet, über die Laufzeit grob kalkuliert durchschnittliche Kosten in Höhe von etwa 1,5 Cent pro Gigabyte und Monat.

Das ist deutlich günstiger als vergleichbare Cloud-Anbieter, aber damit sind die Daten auch noch nicht beim remote arbeitenden Mitarbeiter oder in Niederlassungen und Zweigstellen. Mit der richtigen Kombination von Systemen lässt sich aber alternativ eine Plattform aufbauen, die alle Vorteile einer Cloud-Lösung ohne die damit verbundenen Nachteile liefert, etwa die rechtlichen Probleme mit der Speicherung sensibler Daten außerhalb der EU.

Hinzu kommt das nicht zu unterschätzende Risiko eines „Vendor-Lock-In“: Die Daten liegen bei einem Anbieter und sind nur mit großem Aufwand migrierbar, falls sich beispielsweise die Rahmenbedingungen oder auch nur die finanziellen Konditionen ändern. Dass es keine gute Idee ist, mehrere Terabytes via Internet von einem Anbieter zum nächsten zu schieben, leuchtet sofort ein. Es ist aber auch ärgerlich, wenn man sich für einen günstigen Anbieter entscheidet, der dann aber wiederum unterboten wird, und man nicht ohne Weiteres wechseln kann. Und auch ein Blick auf das Kleingedruckte ist ratsam: Einige Anbieter lassen sich jeden Zugriff auf Daten extra bezahlen – wenn große Mengen migriert werden, fallen entsprechend hohe Kosten an.

Traditionelle Ansätze sind vor allem zu teuer

Der im Vor-Cloud-Zeitalter bewährte Ansatz bestand in der Implementierung eines File-Servers oder NAS (Network Attached Storage). Diese bieten Netzlaufwerke via CIFS- oder NFS-Protokoll und erlauben die Verwaltung von Nutzerrechten innerhalb des Unternehmens. Der Zugriff von außerhalb erfolgt meist via VPN-Tunnel und funktioniert am besten auf klassischen Laptops: Mobile Geräte wie Smartphones und Tablets erfordern Sonderlösungen. Ein NAS bietet vereinfacht gesagt den sicheren Zugriff für Nutzer innerhalb des Unternehmens und mit Laptop und VPN-Technologie auch von außerhalb.

Aber im Vergleich zur Speicherung bei einem externen Cloud-Dienstleister wird die Performance teuer erkauft: Mit 25 bis 35 Cent pro Gigabyte und Monat muss fast das Zehnfache an Kosten kalkuliert werden, sobald man Themen wie Administration, Wartung und Backups in die Rechnung mit einbezieht. Und die Kosten erhöhen sich weiter, falls eine dezentrale Organisation mehrere dieser Systeme im Einsatz hat.

Nehmen wir als Beispiel eine fiktive Großstadt: In zwei gespiegelten Rechenzentren laufen NAS mit mehreren Terabytes an Daten. Beide sind über Glasfaser miteinander verbunden und gleichen in einem Cluster nahezu in Echtzeit die Daten ab, zusätzlich werden die Daten automatisch nach festen Zeitplänen gesichert. Hinzu kommen zahlreiche Nebenstellen, unter anderem für das Bauamt und das Straßenverkehrsamt. Das Bauamt hat zwei Lokationen, an denen Anträge bearbeitet, Projekte geplant oder geprüft werden. Täglich fallen große Mengen an Daten an, wenn etwa Bauanträge mit großformatigen Plänen digitalisiert werden. Die beiden NAS-Systeme im Bauamt bilden ein weiteres, redundantes Cluster, aber um auch auf alte Versionen der Daten zugreifen zu können, werden die Daten vor Ort zusätzlich auf Band gesichert und täglich wird ein „Snapshot” an das Rechenzentrum der Stadt geschickt. Wären die Daten stattdessen in einer externen Cloud, würde die Hardware wegfallen, um Backup und Desaster Recovery müsste sich niemand sorgen und wahrscheinlich wäre die Rechnung am Ende des Monats sogar deutlich niedriger. Die Versuchung ist also enorm groß, aber die rechtlichen Hürden des Datenschutzes verbieten der Stadt diesen Weg. Was also tun?

Die Alternative: Die „City-Cloud“ im eigenen Haus

Die Cloud-Storage-Plattform ‚Hitachi Content Platform (HCP)‘ bietet eine Alternative. Dabei handelt es sich um eine Objektspeicherlösung, mit der Unternehmen File-Daten speichern, teilen, synchronisieren, schützen, aufbewahren, analysieren und abrufen können. Im Vergleich zu herkömmlichen File-Speicherlösungen ist das System effizienter, benutzerfreundlicher und in der Lage, bei minimaler Administration eine größere Menge an Daten zu verarbeiten (bis zu 300 PB) – ganz ohne klassisches Backup.

Die HCP erlaubt Tiering für bestehende File-Server und NAS-Systeme, das heißt, die Nutzung der bestehenden Infrastruktur im Rechenzentrum lässt sich vom Start weg optimieren. Zum Beispiel kann die Stadt die alten, statischen Daten vom NAS auf die HCP migrieren und allein dadurch die laufenden Kosten um bis zu 80% senken. Im oben genannten Beispiel der fiktiven Stadt würden im ersten Schritt zwei HCP-Systeme die „großen” NAS in den Rechenzentren ergänzen. Durch das Tiering kann erfahrungsgemäß der Speicher für das NAS-System auf ein Drittel reduziert werden, während das Backup um bis zu 80 Prozent kleiner wird. Im Bauamt werden die beiden eingesetzten NAS durch Datei-Gateways ersetzt, die die aktuellen Daten des Amtes zwischenspeichern, sich aber im Minutentakt mit der „City Cloud“ auf den HCPs synchronisieren. Dafür kommt der Hitachi Data Ingestor (HDI) zum Einsatz. Er präsentiert ein klassisches CIFS- oder NFS-Dateisystem, speichert die aktuellsten Daten lokal und repliziert alles auf die HCP im Rechenzentrum, sodass auch im Bauamt kein Backup mehr notwendig ist.

In unserem Beispiel liegen die zuletzt genutzten vier Terabytes an Daten lokal vor, ältere Daten sind für den jeweiligen Anwender ebenfalls im Dateisystem sichtbar, müssen jedoch bei Anforderung aus dem RZ der Stadt nachgeladen werden. HDI ist je nach technischer Ausstattung des Remote-Standortes als virtuelle Appliance, als Rack-Mount-Server (bis 20 TB) oder als Remote Server im Schuhkartonformat erhältlich (bis 4 TB). Die Remote-Server-Version könnte von der Stadt als Einstiegslösung für 50 Euro pro Monat an Ämter und öffentliche Einrichtungen wie Schulen vermietet werden. Dazu kommen dann die monatlichen Kosten pro Gigabyte auf der HCP. Unterm Strich bedeutet das, pro Gigabyte und Monat fallen für die gespeicherten Daten Kosten zwischen fünf und zehn Cent an – ein wenig teurer als externe Cloud-Dienstleister, aber deutlich günstiger als bestehende Systeme!

Daten mobil nutzen, externe Clouds anbinden

An dem (noch fiktiven) Beispiel lässt sich sehr gut erkennen, wie sich die Kosten herkömmlicher Speicherlandschaften radikal senken lassen. Die Systeme können allerdings noch weitaus mehr. Beispielsweise ermöglicht HCP Anywhere den Remote-Zugriff auf Dateien über verschiedenste mobile Geräte, also Notebooks, Tablets und Smartphones. Anwender können damit auf Verzeichnisse und Dateien zugreifen, Verzeichnisse synchronisieren und Dateien sicher teilen. Die „Self-Service-App” läuft im eigenen Rechenzentrum. Der Zugriff ist mit HCP Anywhere immer sicher und geschützt, die Übertragung erfolgt verschlüsselt, authentifiziert und regelgesteuert. Auch die Anbindung moderner Applikationen die Cloud-Protokolle verwenden ist kein Problem, da die gesamt Content-Plattform Standard-Protokolle wie S3 und Openstack Swift unterstützt. Im Klartext: Alles, was sich mit AWS-Cloud-Services verbinden lässt, läuft auch in der eigenen Cloud im eigenen Rechenzentrum.

Zusätzlich lassen sich auch externe Cloud-Anbieter einbinden: So ist es möglich, HCP so zu konfigurieren, dass zum Beispiel ein Dateisystem für die Schülerzeitung des städtischen Gymnasiums auf einen AWS S3 Bucket in der öffentlichen Amazon Cloud weitergereicht wird. Dabei werden die Daten von der HCP vorher verschlüsselt und ohne einsehbare Metadaten gespeichert. Für nicht sensible Daten kann damit jede beliebige Speicheroption genutzt werden: Lokal, im RZ der Stadt oder verschlüsselt beim Public-Cloud Anbieter. Die Anwender bekommen davon überhaupt nichts mit. Der Clou daran: Datenbestände können problemlos von einem Cloud-Anbieter zum anderen migriert werden – die Kennung in der HCP bleibt die gleiche. Damit ist es für alle Arten von Daten möglich, das rechtlich beste beziehungsweise günstigste Angebot zu nutzen.

„Ja gut,“ werden jetzt einige Leser einwerfen: „Aber bei AWS administriere ich alles von einer Seite aus, während ich im aufgeführten Beispiel drei Produkte im Einsatz habe – HCP, HDI und HCP Anywhere.“ Das stimmt. Aber an dieser Stelle kommt der große Unterschied zu anderen Ansätzen im Markt zum Tragen: Die gesamte Produktpalette ist integriert und nicht zusammengekauft. Alle Produkte und Features lassen sich zentral über eine komfortable Benutzeroberfläche managen. Damit bleiben die Administrationsaufwände gering und lassen sich anhand der genannten Vorteile vernachlässigen.

Fazit: Cloud is here to stay

Die Geschichte der IT ist voll von spektakulären Fehleinschätzungen. Beispiele? Gern:

  • „Eine erstaunliche Erfindung. Aber wer sollte sie jemals benutzen wollen“ – Kommentar zum ersten Telefon von US-Präsident Rutherford B. Hayes, 1877.
  • „Ich denke, dass es weltweit einen Markt für vielleicht fünf Computer gibt” – IBM Chairman Thomas Watson, 1943.
  • „Das Internet ist nur ein Hype“ – Bill Gates, 1993.

Jürgen Krebs ist CTO EMEA Central Region bei Hitachi Vantara.
Jürgen Krebs ist CTO EMEA Central Region bei Hitachi Vantara.
(Bild: www.MarcFippel.de / Hitachi Vantara)

Die Mehrheit der CIOs, die vor wenigen Jahren überzeugt waren, dass „Cloud“ eine Modeerscheinung ist, die sich niemals im europäischen „Business“ durchsetzen wird, hat ihre Meinung mittlerweile geändert. Cloud-Infrastruktur ist zum festen Bestandteil der flexiblen Unternehmens-IT geworden und bleibt eine Schlüsseltechnologie in den Strategieüberlegungen der Verantwortlichen. Allerdings betrifft diese Einschätzung nicht nur die Cloud als Speicherort, sondern auch die Nutzung von Cloud-Technologien für die zukünftige Speicherarchitektur und -strategie.

Objektspeicher, Web-Zugriff und virtuellen Dateisystemen gehört ganz eindeutig die Zukunft. Allerdings sind noch einige Fragen offen. Unternehmen sind auch in Zukunft gut beraten, ihre Unternehmensdaten wie einen Schatz zu hüten und gleichzeitig für Ihre Mitarbeiter effektiv nutzbar zu machen. Die Kontrolle über wichtige Daten sollte bei denen bleiben, denen sie gehören. Eine sinnvolle Strategie zu entwickeln, wo welche Informationen gespeichert werden können, ist eine Zukunftsaufgabe für die Unternehmens-IT. Und dabei dürfen die Kosten auf keinen Fall aus den Augen verloren werden!

Der Autor: Jürgen Krebs ist CTO EMEA Central Region bei Hitachi Vantara, einem von Hitachi Data Systems gegründeten Unternehmen mit Schwerpunkten in den Bereichen Digitale Transformation, IoT, Cloud, Big Data und Analytics.

(ID:45140936)