Der Bedarf an Storage wächst weiter stetig. So verwundert es wenig, dass viele Unternehmen den Weg in die Cloud suchen. Mehr Flexibilität und weniger Kosten für die eigenen Storage-Infrastruktur stehen bei diesen Überlegungen an vorderster Stelle.
Allerdings gilt es bei der Auslagerung von Diensten in die Cloud genau zu überlegen, ob es sich lohnt. Wie schnell kommt man im Fall eines internen Storage-Ausfalls wieder an seine Daten aus dem Disaster-Recovery-Cloud-Dienst? Und welche Dokumente eignen sich aus Datenschutzgründen überhaupt für Backups in der Cloud?
Wir haben die Experten der führenden Unternehmen im Storage-Segment gefragt, worauf es zu achten gilt:
Hans Schramm, Field Product Manager Enterprise, Dell
Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
Stefan Roth, Manager Sales Competence Center Storage & Network Solutions, Fujitsu Technology Solutions
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems
Guido Klenner, Business Unit Manager Storage, Hewlett-Packard
Ralf Colbus, Leading Storage Professional, IBM Deutschland
Johannes Wagmüller, Director Systems Engineering, NetApp
Vincenzo Matteo, Disk Product Management Director, Oracle
Backup und Disaster Recovery in der Cloud: Ist das sinnvoll?
Hans Schramm - Dell: "Das hängt von verschiedenen Faktoren ab: unter anderem von dem jeweiligen IT-Verantwortlichen, davon, wie die IT aufgestellt ist, welches Know-how vorhanden ist und auch, welche Erfahrungen ein IT-Manager bereits mit Cloud Computing gemacht hat. Es wird immer IT-Administratoren geben, die eine Sicherung ihrer wichtigsten Daten - welche dies auch immer sein mögen - direkt im eigenen Rechenzentrum haben wollen. Andere sind womöglich froh, die Verantwortung für die Daten einem Provider übergeben zu können.
Backups und Disaster Recovery in der Cloud erfordern eine schnelle, leistungsfähige Anbindung. Wenn die Backups bei einem Cloud-Provider liegen, erhöht dies einerseits die Zuverlässigkeit der Datensicherung. Wenn aber andererseits das Disaster Recovery zu lange dauert, sinkt die Akzeptanz."
Dr. Stefan Radtke - EMC: "Das hängt von so vielen Faktoren ab. Hinsichtlich Backup und Disaster Recovery sind die wichtigsten Größen sicherlich die RPO- (Recovery Point Objective) und RTO-Anforderungen (Recovery Time Objective). Dabei wird berechnet, wie schnell und aktuell das Backup sein muss beziehungsweise wie aktuell gespiegelte Systeme sein müssen. Hier ein Beispiel zur Verdeutlichung: Bei Bankgeschäften dürfen Transaktionen niemals verloren gehen. Das heißt, meine Data-Recovery-Lösung muss immer für 100 Prozent Synchronisation sorgen. Das ist jedoch sehr teuer und komplex. Die Latenzzeiten müssen sehr niedrig sein.
Bei einer Abrechnungsanwendung für Telefonverbindungsdaten wäre ein kurzer Ausfall hingegen kein Drama, wenn es sich um eine Batch-Verarbeitung handelt. Selbst der Verlust von einigen wenigen Transaktionen erzeugt nicht gleich einen Millionenschaden. Hier entscheiden also die Business-Anforderungen, welche Technologie akzeptabel ist und welche nicht.
Ein anderer Aspekt ist die Datensicherheit. Wir haben gerade in Deutschland sehr hohe Datenschutzanforderungen, die häufig nicht mit denen von Providern ausländischer Anbieter übereinstimmen. Manche Anbieter sind offenbar nicht immer frei in der Entscheidung, welche Daten sie weitergeben müssen oder nicht."
Stefan Roth - FTS: "Für Disaster Recovery ergibt das durchaus Sinn. Das gilt insbesondere für Kunden, die sich kein zweites Rechenzentrum leisten wollen oder zusätzlich ihre Daten absichern möchten.
Auch für das Backup von Archivdaten sind Cloud-Services für viele Kunden empfehlenswert. Fujitsu hat auf diesem Gebiet schon einige Kundenprojekte laufen."
Dr. Georgios Rimikis - Hitachi Data Systems: "Insgesamt sind Unternehmen auf der Suche nach flexiblen, leistungsstarken und automatisierten Lösungen, die aber gleichzeitig zukunftsorientiert sein müssen, um die Investitionen langfristig zu schützen. Dies gilt für Backup ebenso wie für Disaster Recovery. Generell lassen sich alle Storage-Aufgaben in die Cloud verlagern - es kommt eher darauf an, die richtige "Wolke" für die richtigen Daten auszuwählen. Unternehmenskritische Daten sollten in einer Private Cloud gespeichert werden, mit entsprechendem rollen- oder identitätsbasierten Zugriff für Mitarbeiter.
Weniger sensible Daten können auch in einer kostengünstigen Public Cloud gelagert werden. Wir sehen daher ein deutliches Wachstum bei hybriden Speicherkonzepten sowie bei schlüsselfertigen Lösungen, zu denen beispielsweise die Hitachi-Unified-Computer-Plattform (UCP) gehört - eine vorkonfigurierte, getestete und zertifizierte Lösung, bestehend aus Server, Speicher, Netzwerkinfrastruktur und Managementmechanismen.
Daten, die sehr hohe Ansprüche an Sicherheit, Performance, Flexibilität und Verfügbarkeit an die Anwendungen stellen, sind für die öffentliche Cloud nicht geeignet. Dagegen sind neben Backups und Disaster Recovery Entwicklungs-, Tests- und bestimmte Archivierungsdaten für die Cloud geeignet."
Guido Klenner - Hewlett-Packard: "Gerade im KMU-Segment sind Backup-as-a-Service-Angebote sehr beliebt, weil sie einfach und relativ kostengünstig zu realisieren sind und eine höhere Zuverlässigkeit bieten als andere Methoden.
Bei größeren Unternehmen sowie Kunden mit hohen SLA- und/oder Security-Anforderungen erleben wir, dass man solche Angebote in eine größere Architektur einbindet, zum Beispiel als 3rd Site für Replikationen. Die primären Backup-Lösungen werden dabei nach wie vor on-premise betrieben.
Eine pauschale Empfehlung für oder gegen die Cloud kann nicht abgegeben werden, da diese von verschiedenen Faktoren abhängt, die wir bei jedem Kunden im Gesamtkontext betrachten und bewerten. Dazu gehören die Kenntnisse des IT-Fachpersonals, Service Level Agreements, Recovery Point Objective (RPO) und Recovery Time Objective (RTO) sowie Sicherheitsanforderungen, Datenmengen und Budgets. Außerdem sollten Kunden möglichst offene Systemplattformen wählen, um einen Vendor-Lock-in zu vermeiden.
Typischerweise bieten sowohl unsere Partner als auch wir von HP dem Kunden an, dessen Anforderungen und Ziele im Rahmen eines Workshops aufzunehmen, zu analysieren und eine darauf basierende Empfehlung auszuarbeiten."
Ralf Colbus - IBM: "IBM hat mit Softlayer die Möglichkeit, Bare-Metall-Konstrukte aufzubauen, also neben den Schnittstellen auch faktische 1:1-Abbilder des Rechenzentrums in der Cloud zu hosten. In kleinen und mittelständischen Unternehmen mag eine Public-Cloud für einfache Backup-/Restore-Umgebungen funktionieren. Ab einer bestimmten Datenmenge (bedingt durch stark veränderte Daten, die gesichert werden müssen) wird das Problem der Bandbreiten zuschlagen - gesetzte RPO- und RTO-Parameter werden damit fraglich.
Für Latency-unkritische Anforderungen - wie etwa das bewusste, nachgelagerte Verschieben von Daten in die Cloud als weiteren Standort - oder auch im Archivierungsbereich funktioniert ‚Cloud‘ sehr gut."
Johannes Wagmüller - NetApp: "Unternehmen suchen heute nach kostengünstigen Möglichkeiten, die wachsende Datenflut zu beherrschen und Anforderungen rund um das Backup effizient erfüllen zu können. Die Integration von Cloud-Technologien in die eigene IT-Infrastruktur erweist sich hierbei als praktikable Strategie: Lösungen für Backup-as-a-Service (kurz BaaS), wie sie von NetApp heute bereits angeboten werden, sichern die eigenen Daten im Data Center des Service-Providers.
Dieser sorgt dann für die Einhaltung der Compliance-Richtlinien und ermöglicht im Notfall ein rasches Wiederherstellen der Daten. Deutsche Anbieter garantieren in der Regel, dass die gängigen IT-Sicherheitsnormen wie ISO 27001 oder die IT-Grundschutz-Empfehlungen eingehalten werden.
Darüber hinaus lassen sich mit einer hybriden Cloud-Lösung auch größte Datenmengen sicher und dynamisch verwalten. Unternehmenskritische Daten verbleiben hierbei in der Private Cloud im eigenen Rechenzentrum und werden ergänzt durch IT-Dienste, die Cloud-Service-Provider mit Rechenzentren in Deutschland anbieten.
Bei den IT-Managern sollte daher ein Umdenkprozess starten. Es ist heute insbesondere für ein mittelständisches Unternehmen einfach nicht mehr zeitgemäß, sich in aller Tiefe und mit allen technologischen Details eines Backup-Prozesses selbst zu befassen."
Vincenzo Matteo - Oracle: "Backups und Archivierung sind - die entsprechenden Sicherheitsmaßnahmen vorausgesetzt - zwei Storage-Aufgaben, die von Cloud-Services profitieren können. Backup-Prozesse gestalten sich so einfacher, und grundsätzlich lassen sich in der Cloud Ausgaben für zusätzliche Infrastruktur und deren laufenden Betrieb einsparen. Neben der direkten Speicherung in der Cloud ist auch die Auslagerung inaktiver Daten dorthin eine Option.
Das macht brachliegende interne Ressourcen frei und erlaubt es, diese wieder produktiv einzusetzen. Trotzdem werden auch Backup- und Archivierungsaufgaben normalerweise von Hybrid Clouds übernommen. Wiederherstellungs- und Rettungsmaßnahmen können durch das Zusammenspiel eigener Systeme mit Cloud-Services, wie etwa unserer Applications-Engineered-Storage (AES)-Lösungen mit der Oracle-Cloud, schlicht und ergreifend schneller realisiert werden."
Welche Hybrid-Cloud-Anforderungen gibt es an die eigene Storage-Infrastruktur?
Es gibt inzwischen kaum noch Services, die Unternehmen nicht als Cloud-Dienst buchen können. Doch will man wirklich alle Daten diesen Public-Cloud-Services anvertrauen? Hier werden sehr viele CIOs schon allein aus Datenschutz- und Compliance-Gründen Nein sagen. Als Folge laufen sensible Dienste besser auf der eigenen IT-Infrastruktur, weniger kritische Services kommen in die Public Cloud.
Was muss die eigene Storage-Infrastruktur bei diesem hybriden Mischbetrieb einer Private und Public Cloud eigentlich leisten? Es muss Schnittstellen zur Einbindung von Public Clouds à la Amazon S3 oder Microsoft Azure geben. Inzwischen nutzen Unternehmen die Public Cloud zunehmend beispielsweise auch für Backup und Disaster Recovery. Ein Problem im hybriden Einsatz der Cloud-Dienste ist das Datenmanagement: Wie lassen sich On-Premise-Daten mit den Dokumenten in der privaten und Public Cloud zentral überwachen - Stichworte Monitoring, Alerting, Kapazitätsmanagement?
Wir haben die Experten führender Unternehmen im Storage-Segment nach ihrer Meinung gefragt, ob es für die eigene Speicherlandschaft für den Einsatz der Hybrid-Cloud spezielle Anforderungen gibt:
Hans Schramm - Dell: "Für eine Speicherinfrastruktur, die Unternehmen in ihrem eigenen Rechenzentrum beispielsweise auch als Private-Teil einer Hybrid-Cloud betreiben, sind alle aktuellen Storage-Innovationen relevant. Dazu zählen etwa reine Flash- oder hybride Arrays. Weitere Anforderungen sind ein einfaches und übersichtliches Management sowie ein dynamisches und automatisiertes Tiering.
Damit werden häufig benötigte Daten auf schnellen, kleinen und teuren Medien wie SAS-Festplatten oder SSDs und selten benötigte Daten auf großen, aber kostengünstigen Medien platziert. Die Storage-Infrastruktur sollte für neue Technologien offen sein und beispielsweise die Kombination von unterschiedlichen Storage-Technologien in einem System oder auch Hyperconverged-Lösungen, die zunehmend auf den Markt kommen, unterstützen."
Dr. Stefan Radtke - EMC: "In der Vergangenheit dominierten zwei Modelle den Storage-Einsatz: das Enterprise-Storage-Modell mit klassischen NAS- und Block-Protokollen auf der einen und das Cloud-/Objekt-Storage-Modell auf der anderen Seite. Diese zwei Welten wachsen bei EMC seit Jahren zusammen und bieten dem Kunden viele Auswahlmöglichkeiten.
Die EMC ViPR unterstützt beispielsweise alle klassischen Access-Protokolle, und auch im Back-End hat der Kunde die Wahl: Er kann Speichersysteme verschiedener Hersteller einsetzen oder einfach nur Commodity-Server mit internen Disks oder eine Appliance mit Commodity-Komponenten implementieren.
Ein weiteres sehr wichtiges Element ist die Bereitstellung eines Servicekataloges für die Endbenutzer. Dieser muss sehr einfach handhabbar sein, damit die Akzeptanz genauso hoch ist wie bei bedienerfreundlichen Cloud-Anbietern. Das setzt ein Portal für die Administration voraus, in dem Services zentral definiert und gewartet werden können."
Dr. Georgios Rimikis - Hitachi Data Systems: "Zunächst einmal muss die Hybri- Cloud-Lösung die Anforderungen des Unternehmens in puncto Flexibilität, Kosten, Verfügbarkeit und Leistungsfähigkeit erfüllen. Allerdings sollten die Systeme bei den Schnittstellen zu Public Clouds nicht haltmachen, denn das wäre deutlich zu kurz gedacht. Zusätzliche Funktionen können den Nutzen der Cloud-Lösung deutlich erweitern.
Über RESTful Protokolle könnten Daten in einer Public Cloud gespeichert werden, während aktive Metadaten hinter der Firewall in der Private Cloud residieren. Objektbasierte Speicherlösungen wie die Hitachi Cloud Platform (HCP) ermöglichen ein automatisiertes Daten-Tiering in der Public Cloud, gleichzeitig bleiben die Verschlüsselung und die Metadatenkontrolle der Private Cloud erhalten.
Daten in der Public Cloud zu speichern kann kosteffizient sein - zumindest solange Unternehmen nicht auf sie zugreifen. Trotzdem wollen Unternehmen natürlich die Kontrolle darüber behalten. Und genau hier setzt das Hybrid-Cloud-Modell an: Die Metadaten bleiben in der unmittelbaren Kontrolle des Unternehmens, Inhalte lassen sich so einfach suchen und werden nur aus der Public Cloud heruntergeladen, wenn das passende Datenobjekt gefunden ist. Darüber hinaus sollten die Metadaten erweiterbar sein.
Nachdem nicht gewährleistet ist, wo die Daten in der Public Cloud physikalisch abgelegt sind, sollte deren Verschlüsselung ebenso zum Standard gehören wie ein Hash-Algorithmus. Damit kann nachgewiesen werden, dass die Daten tatsächlich nicht verändert wurden. Ein weiterer wichtiger Punkt: Eine Lösung sollte so flexibel sein, dass die Daten sich im Hintergrund migrieren und zwischen verschiedenen Public Clouds verschieben lassen."
Ralf Colbus - IBM: "Zentral muss die Möglichkeit bestehen, Daten nahtlos von einem Cloud-Provider zu einem anderen zu verschieben. Dies rückt etwa dann in den Fokus, wenn ein Cloud-Provider die definierten Service Level Agreements (SLA) nicht mehr halten kann. Ebenfalls wichtig sind offene APIs und Verschlüsselung sowie die nahtlose Integration von Storage- und Compute-Power in der Cloud, sodass sich Daten nicht nur verschieben, sondern auch in der Cloud analysieren lassen."
Johannes Wagmüller - NetApp: "Unternehmen benötigen eine Datenmanagementplattform, die über die Clouds der verschiedenen Anbieter hinweg funktioniert. Erst mit einer solchen Lösung gelingt eine Verbindung zwischen On-Premise-Systemen sowie Ressourcen aus der Private und Public Cloud. Warum dies wichtig ist, wird deutlich, wenn man sich die Situation in vielen Rechenzentren heute einmal ansieht. Immer wieder stellen wir fest, dass unternehmenskritische Daten in Silos gespeichert sind, für deren Verwaltung keine übergreifende Dateninfrastruktur und auch keine durchgängigen Prozesse existieren.
Wir bieten Lösungen für ein Datenmanagement dieser verteilten Datensilos an. Dabei ist es gleichgültig, ob diese Datensilos on-premise, in Colocation-Centern oder bereits in der Cloud liegen. Die Basis für diese durchgängige Nutzung ist unsere Lösung Clustered Data ONTAP. Damit unterstützen wir eine Strategie weg von einzelnen Storage-Arrays und ermöglichen eine dynamische Daten- und Workload-Verschiebung über alle Ressourcen hinweg, inklusive der Cloud."
Vincenzo Matteo - Oracle: "Eine hochwertige Hybrid-Cloud-Infrastruktur setzt eine leistungsstarke Application-Engineered-Storage-Lösung (AES) inklusive OpenStack-Cloud-API-Support vor Ort voraus. AES senken per Automatisierung Verwaltungskosten und bieten zusätzlich anwendungsspezifisch speziell abgestimmte Funktionen. Für Oracle-Datenbanken ist die Hybrid Columnar Compression ein Beispiel. Sie beschleunigt Abfragen und verringert gleichzeitig den Speicherbedarf. Ein weiteres wichtiges Feature für On-Premise Storage-Lösungen, das nur in Verbindung mit AES verfügbar ist, ist QoS Plus. Es zählt zu den intelligentesten Management-Frameworks im Storage-Sektor.
QoS Plus kombiniert I/O-Service-Priorisierung anhand des jeweiligen betriebswirtschaftlichen Nutzens, der workload-spezifischen Granularität (Read, Write, Random, Sequential) und der Zugriffshäufigkeit - und verschiebt Daten entsprechend in den am besten geeigneten Data Tier. Das spart Kosten, funktioniert vollautomatisch und wird - sofern gewünscht - vom Oracle FS1 AES laufend angepasst. Daten möglichst kosten- und kapazitäteneffizient zu verwalten ist gerade beim Umgang mit Flash-Speicher und in Hybrid-Cloud-Szenarien besonders wichtig. Hier kommt QoS-Plus ins Spiel - es kennt die aktuell am häufigsten verwendeten und besonders geschäftskritischen Daten und sichert sie genau dort, wo sie besonders schnell abgefragt werden können."
Wird On-Premise-Speicher durch die Cloud überflüssig?
Es gibt kaum noch Services, die nicht in der einen oder anderen Form als Cloud-Dienst angeboten werden. Dies fängt bei der Auslagerung von Backup- und Archivierungsprozessen an und hört auch bei Business-Anwendungen für Finanz-, Kunden- und Personalmanagement sowie Beschaffungs- oder Lieferprozesse nicht auf. Selbst datenintensive Workloads wie für Big-Data-Analysen wandern schon in die Cloud.
Unternehmen können sich durch die Cloud-Dienste den Betrieb eigener IT-Infrastrukturen zunehmend sparen, schenkt man den Aussagen der entsprechenden Cloud-Provider Glauben. Macht das umfangreiche Angebot an Cloud-Diensten eigenes On-Premise-Storage wirklich überflüssig?
Wir haben die Experten der führenden Unternehmen im Storage-Segment nach ihrer Meinung gefragt:
Hans Schramm - Dell: "Hier müssen zunächst einmal Fragen geklärt werden wie: Um welche Daten handelt es sich? Wie sensibel sind diese? Soll die Analyse in Echtzeit stattfinden? Es ist in vielen Fällen hilfreich, die Analysen auszulagern, am besten dorthin, wo auch die Daten liegen. Hat ein Unternehmen Bedenken, seine Daten außer Haus zu geben, wird es auch die Analysen im eigenen Rechenzentrum durchführen."
Dr. Stefan Radtke - EMC: "Das ist auch eine Frage der Kosten. Wenn Sie gelegentlich ein paar Gigabyte oder weniger Daten analysieren wollen, kann man sicher Cloud-Services nutzen. Muss man die Daten aber erst in die Cloud übertragen, wird die Analyse sehr unhandlich. Bei großen Datenmengen dürfte eine eigene Infrastruktur günstiger sein. Hier finden natürlich Entwicklungen bei allen Herstellern statt. Nehmen Sie als Beispiel das Scale-Out-NAS-System Isilon von EMC.
Neben den gängigen NAS-Protokollen wurde auch HDFS als Protokoll implementiert, und zwar nativ. Das heißt, es sind keine weiteren Treiber auf der Client-Seite notwendig. Dadurch kann man alle gespeicherten Daten mit den gängigen Hadoop-Lösungen von Cloudera, Hortonworks, Pivotal etc. analysieren. Dafür müssen die Daten nicht - wie üblich - erst in einen Hadoop-Cluster kopiert werden. Isilon bietet die Möglichkeit, sowohl POSIX-konform als auch per HDFS auf die Daten zuzugreifen. Das ist wesentlich kostengünstiger und schneller, als die Daten zwischen beiden Welten hin- und herzukopieren. Letzteres kostet Zeit und viele Netzwerkressourcen."
Stefan Roth - Fujitsu: "Nein, denn sehr viele Kunden lagern nicht ihre komplette IT Infrastruktur aus, sondern setzen auf sogenannte Hybrid-Cloud-Architekturen. Bei diesem Sourcing-Modell werden nur ausgewählte Applikationen, Prozesse, Infrastrukturen oder Datenbereiche ausgelagert. Die Infrastruktur im eigenen Rechenzentrum muss jedoch mit der Cloud-Infrastruktur ideal harmonieren und zusammenarbeiten können."
Dr. Georgios Rimikis - Hitachi Data Systems: "Wir würden nicht sagen, dass On-Premise Storage überflüssig wird, es wird eher eine Vielzahl von Kombinationen aus Cloud-Services, Virtualisierung und On-Premise geben. Wir sehen eher eine Koexistenz dieser Konzepte. Für welche Lösung bzw. welche Kombination sich ein Unternehmen entscheidet, hängt von den Business-Anforderungen und einer entsprechend ausgearbeiteten Speicherstrategie ab.
Wie auch immer diese aussieht, die wichtigste Prämisse ist, dass die Storage-Architektur im Zusammenspiel mit entsprechenden Analyse-Tools dabei unterstützt, alle Arten von Daten in Echtzeit zu analysieren, und damit dem Unternehmen einen echten Business-Mehrwert liefert."
Guido Klenner - Hewlett-Packard: "Mithilfe einer Datenklassifizierung lässt sich herausfinden, welche Speicher, Protokolle und Speicherorte sich am besten für die Speicherung eignen. Nicht alle Daten sind gleich, nicht alle Daten haben eine gleich hohe ‚Lebenserwartung,‘ und nicht alle Daten müssen in gleicher Geschwindigkeit bereitgestellt werden.
Abhängig von der Art der Daten empfehlen wir einigen Kunden eine Verlagerung von On-Premise- zu Cloud-Speicherangeboten. Allerdings ist auch hier eine präzise Analyse der Datenart, des Speichers und des Speicherorts entscheidend. Für den Kunden ist es wichtig, offene Systeme zu wählen, die eine dynamische Datenverlagerung und Elastizität bei kurzzeitigen Erfordernissen ermöglichen, ohne ihn an den Anbieter zu binden.
Wir beobachten allerdings, dass gerade im Einstiegssegment neue Speicherkonzepte wie Software-defined Storage (SDS) vermehrt Einzug halten. Diese können sich zu einer angemessenen Alternative zu den bisherigen FC-basierten Einstiegslösungen entwickeln. Gerade die Industrie 4.0 wird mit ihren Maschinendaten aus dem Internet of Things die bisher bekannten Dimensionen an Datenmengen und Wachstumsraten kräftig verändern. Hier sehen wir die Chance für hochskalierbare, dynamische und kostenminimierte Cloud-Storage-Lösungen. Neue Lösungen wie unser Content-Depot HP Helion auf OpenStack- und Industrie-Standard-Architekturbasis zielen darauf ab."
Ralf Colbus - IBM: "Nein, die beiden Möglichkeiten werden sich aber stärker ergänzen. Sicherheit, Verfügbarkeit und Performance werden nach wie vor für On-Premise Storage-Systeme sprechen. Man denke nur an Flash-Systeme, die Millionen IOPS im Mikrosekunden-Latency-Bereich durchführen können für EPR, VDI oder Datenbanken im direkten Zugriff.
Dazu kommt stets eine wichtige Abwägung der Kosten (Total Cost of Ownership): Ab wann rechnen sich Big Data-Analysen in der Cloud, wann On-Premise?"
Johannes Wagmüller - NetApp: "Der Trend wird zum Multi-Sourcing gehen. On-Premise Storage wird weiterhin erste Wahl bleiben, wenn mit den Daten und Leistungen erhebliche Wertschöpfung für das Kerngeschäft der eigenen Organisation geschaffen wird. Hochstandardisierte Services wie etwa Collaboration, Backup und Infrastruktur werden hingegen als Managed-Services erbracht werden oder in der Public Cloud stattfinden. Wir werden eine Koexistenz verschiedener Betreibermodelle sehen. Hybride Modelle sind schon heute Realitä,t und dieser Trend setzt sich fort.
Wenn es um die Themen Storage- und Daten-Management geht, dann wird die Gravität von Daten meist unterschätzt. Diese Daten ‚kleben‘ förmlich an der Infrastruktur. Daten von A nach B und wieder zurück zu bewegen ist alles andere als trivial und meist ein Professional-Service-Projekt, das einen Riesenaufwand nach sich zieht."
Vincenzo Matteo - Oracle: "Es wird immer Bereiche geben, die von On-Premise-Storage-Lösungen profitieren, dazu zählen etwa datenintensive Aufgaben wie Big Data Analytics. Die Hybrid Columnar Compression für Oracle-Datenbanken ist ein Beispiel. Sie ist nur auf Oracle-Storage-Systemen verfügbar und ermöglicht fünf- bis zehnmal schnellere Abfragen." (cvi)