Wird On-Premise-Speicher durch die Cloud überflüssig?
Es gibt kaum noch Services, die nicht in der einen oder anderen Form als Cloud-Dienst angeboten werden. Dies fängt bei der Auslagerung von Backup- und Archivierungsprozessen an und hört auch bei Business-Anwendungen für Finanz-, Kunden- und Personalmanagement sowie Beschaffungs- oder Lieferprozesse nicht auf. Selbst datenintensive Workloads wie für Big-Data-Analysen wandern schon in die Cloud.
Unternehmen können sich durch die Cloud-Dienste den Betrieb eigener IT-Infrastrukturen zunehmend sparen, schenkt man den Aussagen der entsprechenden Cloud-Provider Glauben. Macht das umfangreiche Angebot an Cloud-Diensten eigenes On-Premise-Storage wirklich überflüssig?
- Johannes Wagmüller, Director Systems Engineering, NetApp
"Der Trend wird zum Multisourcing gehen. On-Premise Storage wird weiterhin erste Wahl bleiben, wenn mit den Daten und Leistungen erhebliche Wertschöpfung für das Kerngeschäft der eigenen Organisation geschaffen wird." - Vincenzo Matteo, Disk Product Management Director, Oracle
"Es wird immer Bereiche geben, die von On-Premise-Storage-Lösungen profitieren, dazu zählen etwa datenintensive Aufgaben wie Big Data Analytics." - Ralf Colbus, Leading Storage Professional, IBM Deutschland
"Nein, die beiden Möglichkeiten werden sich aber stärker ergänzen. Sicherheit, Verfügbarkeit und Performance werden nach wie vor für On-Premise Storage-Systeme sprechen." - Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
"Das ist auch eine Frage der Kosten. Wenn sie gelegentlich ein paar Gigabyte oder weniger Daten analysieren wollen, kann man sicher Cloud Services nutzen. Muss man die Daten aber erst in die Cloud übertragen, wird die Analyse sehr unhandlich. Bei großen Datenmengen dürfte eine eigene Infrastruktur günstiger sein." - Stefan Roth, Manager Sales Competence Center, Fujitsu
"Nein, denn sehr viele Kunden lagern nicht ihre komplette IT Infrastruktur aus, sondern setzen auf sogenannte Hybrid-Cloud-Architekturen. Bei diesem Sourcingmodell werden nur ausgewählte Applikationen, Prozesse, Infrastrukturen oder Datenbereiche ausgelagert." - Dr. Georgios Rimikis, Senior Manager Solutions Strategy, HDS
"Wir würden nicht sagen, dass On-Premise Storage überflüssig wird, es wird eher eine Vielzahl von Kombinationen aus Cloud Services, Virtualisierung und On-Premise geben. Wir sehen eher eine Koexistenz dieser Konzepte." - Guido Klenner, Business Unit Manager Storage, Hewlett-Packard
"Mithilfe einer Datenklassifizierung lässt sich herausfinden, welche Speicher, Protokolle und Speicherorte sich am besten für die Speicherung eignen. Nicht alle Daten sind gleich, nicht alle Daten haben eine gleich hohe ‚Lebenserwartung‘ und nicht alle Daten müssen in gleicher Geschwindigkeit bereitgestellt werden.“ - Hans Schramm, Field Product Manager Enterprise, Dell
"Um welche Daten handelt es sich? Wie sensibel sind diese? Soll die Analyse in Echtzeit stattfinden? Es ist in vielen Fällen hilfreich, die Analysen auszulagern, am besten dorthin, wo auch die Daten liegen."
Wir haben die Experten der führenden Unternehmen im Storage-Segment nach ihrer Meinung gefragt:
Hans Schramm - Dell: "Hier müssen zunächst einmal Fragen geklärt werden wie: Um welche Daten handelt es sich? Wie sensibel sind diese? Soll die Analyse in Echtzeit stattfinden? Es ist in vielen Fällen hilfreich, die Analysen auszulagern, am besten dorthin, wo auch die Daten liegen. Hat ein Unternehmen Bedenken, seine Daten außer Haus zu geben, wird es auch die Analysen im eigenen Rechenzentrum durchführen."
Dr. Stefan Radtke - EMC: "Das ist auch eine Frage der Kosten. Wenn Sie gelegentlich ein paar Gigabyte oder weniger Daten analysieren wollen, kann man sicher Cloud-Services nutzen. Muss man die Daten aber erst in die Cloud übertragen, wird die Analyse sehr unhandlich. Bei großen Datenmengen dürfte eine eigene Infrastruktur günstiger sein. Hier finden natürlich Entwicklungen bei allen Herstellern statt. Nehmen Sie als Beispiel das Scale-Out-NAS-System Isilon von EMC.
Neben den gängigen NAS-Protokollen wurde auch HDFS als Protokoll implementiert, und zwar nativ. Das heißt, es sind keine weiteren Treiber auf der Client-Seite notwendig. Dadurch kann man alle gespeicherten Daten mit den gängigen Hadoop-Lösungen von Cloudera, Hortonworks, Pivotal etc. analysieren. Dafür müssen die Daten nicht - wie üblich - erst in einen Hadoop-Cluster kopiert werden. Isilon bietet die Möglichkeit, sowohl POSIX-konform als auch per HDFS auf die Daten zuzugreifen. Das ist wesentlich kostengünstiger und schneller, als die Daten zwischen beiden Welten hin- und herzukopieren. Letzteres kostet Zeit und viele Netzwerkressourcen."
Stefan Roth - Fujitsu: "Nein, denn sehr viele Kunden lagern nicht ihre komplette IT Infrastruktur aus, sondern setzen auf sogenannte Hybrid-Cloud-Architekturen. Bei diesem Sourcing-Modell werden nur ausgewählte Applikationen, Prozesse, Infrastrukturen oder Datenbereiche ausgelagert. Die Infrastruktur im eigenen Rechenzentrum muss jedoch mit der Cloud-Infrastruktur ideal harmonieren und zusammenarbeiten können."
Dr. Georgios Rimikis - Hitachi Data Systems: "Wir würden nicht sagen, dass On-Premise Storage überflüssig wird, es wird eher eine Vielzahl von Kombinationen aus Cloud-Services, Virtualisierung und On-Premise geben. Wir sehen eher eine Koexistenz dieser Konzepte. Für welche Lösung bzw. welche Kombination sich ein Unternehmen entscheidet, hängt von den Business-Anforderungen und einer entsprechend ausgearbeiteten Speicherstrategie ab.
Wie auch immer diese aussieht, die wichtigste Prämisse ist, dass die Storage-Architektur im Zusammenspiel mit entsprechenden Analyse-Tools dabei unterstützt, alle Arten von Daten in Echtzeit zu analysieren, und damit dem Unternehmen einen echten Business-Mehrwert liefert."
Guido Klenner - Hewlett-Packard: "Mithilfe einer Datenklassifizierung lässt sich herausfinden, welche Speicher, Protokolle und Speicherorte sich am besten für die Speicherung eignen. Nicht alle Daten sind gleich, nicht alle Daten haben eine gleich hohe ‚Lebenserwartung,‘ und nicht alle Daten müssen in gleicher Geschwindigkeit bereitgestellt werden.
Abhängig von der Art der Daten empfehlen wir einigen Kunden eine Verlagerung von On-Premise- zu Cloud-Speicherangeboten. Allerdings ist auch hier eine präzise Analyse der Datenart, des Speichers und des Speicherorts entscheidend. Für den Kunden ist es wichtig, offene Systeme zu wählen, die eine dynamische Datenverlagerung und Elastizität bei kurzzeitigen Erfordernissen ermöglichen, ohne ihn an den Anbieter zu binden.
Wir beobachten allerdings, dass gerade im Einstiegssegment neue Speicherkonzepte wie Software-defined Storage (SDS) vermehrt Einzug halten. Diese können sich zu einer angemessenen Alternative zu den bisherigen FC-basierten Einstiegslösungen entwickeln. Gerade die Industrie 4.0 wird mit ihren Maschinendaten aus dem Internet of Things die bisher bekannten Dimensionen an Datenmengen und Wachstumsraten kräftig verändern. Hier sehen wir die Chance für hochskalierbare, dynamische und kostenminimierte Cloud-Storage-Lösungen. Neue Lösungen wie unser Content-Depot HP Helion auf OpenStack- und Industrie-Standard-Architekturbasis zielen darauf ab."
Ralf Colbus - IBM: "Nein, die beiden Möglichkeiten werden sich aber stärker ergänzen. Sicherheit, Verfügbarkeit und Performance werden nach wie vor für On-Premise Storage-Systeme sprechen. Man denke nur an Flash-Systeme, die Millionen IOPS im Mikrosekunden-Latency-Bereich durchführen können für EPR, VDI oder Datenbanken im direkten Zugriff.
Dazu kommt stets eine wichtige Abwägung der Kosten (Total Cost of Ownership): Ab wann rechnen sich Big Data-Analysen in der Cloud, wann On-Premise?"
Johannes Wagmüller - NetApp: "Der Trend wird zum Multi-Sourcing gehen. On-Premise Storage wird weiterhin erste Wahl bleiben, wenn mit den Daten und Leistungen erhebliche Wertschöpfung für das Kerngeschäft der eigenen Organisation geschaffen wird. Hochstandardisierte Services wie etwa Collaboration, Backup und Infrastruktur werden hingegen als Managed-Services erbracht werden oder in der Public Cloud stattfinden. Wir werden eine Koexistenz verschiedener Betreibermodelle sehen. Hybride Modelle sind schon heute Realitä,t und dieser Trend setzt sich fort.
Wenn es um die Themen Storage- und Daten-Management geht, dann wird die Gravität von Daten meist unterschätzt. Diese Daten ‚kleben‘ förmlich an der Infrastruktur. Daten von A nach B und wieder zurück zu bewegen ist alles andere als trivial und meist ein Professional-Service-Projekt, das einen Riesenaufwand nach sich zieht."
Vincenzo Matteo - Oracle: "Es wird immer Bereiche geben, die von On-Premise-Storage-Lösungen profitieren, dazu zählen etwa datenintensive Aufgaben wie Big Data Analytics. Die Hybrid Columnar Compression für Oracle-Datenbanken ist ein Beispiel. Sie ist nur auf Oracle-Storage-Systemen verfügbar und ermöglicht fünf- bis zehnmal schnellere Abfragen." (cvi)