Welche Entwicklungen beeinflussen die Storage-Infrastruktur in der Unternehmens-IT? Lesen Sie, welche Storage-Trends CIOs und IT-Manager 2013 im Auge behalten müssen.
von Ariane Rüdiger
Das Optimum aus den sich auftürmenden Datenbergen zu holen, ohne an ihnen zu ersticken - so könnte man die komplexe Aufgabe des CIO im Bereich Storage umschreiben. Um sie zu bewältigen, sind neue Technologien ebenso nötig wie veränderte Strategien. Was auf Anwender und IT-Manager zukommt, zeigen die aktuellen Storage-Trends.
Trend 1: Die Datenberge wachsen weiter – der Datenmüll auch
Wenn die Menschen im Jahr 2020 rund 40 Zettabyte Daten produzieren, wird fast ein Viertel davon komplett nutzlos sein. Das zumindest prognostizieren die Marktforscher von IDC (Studie: Digital Universe 2012, gesponsert von EMC). Die Menge unnützer Daten wäre demnach achtmal so groß wie heute. Nach ihrer Entstehung und kurzfristigen Nutzung brauche niemand diese Daten je wieder, urteilen die Experten. Grob geschätzt entstünden also 10 Zettabyte Datenschrott, sprich 10 Billionen Gigabyte. Nach den Preiskalkulationen von IDC, denen zufolge 1 GByte Storage im Jahr 2020 etwa 20 Cent kosten soll (heute: 2 Dollar), geben die Unternehmen dann rund 20 Milliarden Dollar für die benötigten Speichersysteme aus.
Der Datenwust beinhaltet auch Dubletten, Tripletten und Quadrupletten, denn die sind im Digital Universe enthalten, aber auch vieles andere. Lieferketteninformationen beispielsweise, sobald das Gut sicher beim Kunden angekommen ist. Oder auch SMS mit Einladungen zum Mittagessen. 2020 gibt es der Studie zufolge indes weitere 33 Prozent Daten (2012: 23 Prozent), die durchaus wertvoll wären, versähe sie nur jemand mit Metadaten und analysierte sie (siehe Grafik).
Das war jedoch laut IDC 2012 nur bei drei Prozent dieser potenziell werthaltigen Daten der Fall. Geht man nun großzügig davon aus, dass von den heute ungetaggten, aber potenziell sinnvollen 30 Prozent (entsprechend 12 Zettabyte im Jahr 2020) weitere 7 Zettabyte getaggt und analysiert würden, blieben immer noch 5 Zettabyte zusätzlicher Datenmüll übrig, was weiteren unnütze Storage für zehn Milliarden Dollar verschlänge. Insgesamt könnte also 2020 Speicher im Wert von mehr als 30 Milliarden Dollar keinerlei vernünftigen Zweck erfüllen.
Fazit: So wie Datenerzeugung und Storage heute funktionieren, sind sie trotz allen Preisverfalls noch immer ein fast grenzenloses Umsatz-Generierungsprogramm für Hersteller von Storage-Hardware und -Software.
Trend 2: SSD und Co. – Storage ohne Festplatten wird zum Allrounder
Ob als SSD oder als reiner Flash-Speicher, der Siegeszug der Speichertechnologie ohne bewegliche Medien ist nicht mehr aufzuhalten. Inzwischen soll Flash, so verkündete jüngst der Hersteller Fusion-io, in hochskalierbaren Cloud-Rechenzentren Festplatten-Storage gleich ganz ersetzen können.
Die ioScale-Module mit je 3,2 TByte Kapazität werden in Paketen zu 100 Stück an Endkunden verkauft und direkt an den PCIe-Bus, also die Server-Infrastruktur, angehängt. Dass die Technologie weiter vordringt, belegten schon die zahlreichen SSD-Varianten und –News auf der Storage Networking World im Herbst 2012: Zu sehen gab es SSD/Flash-Storage als Tier 0, als Cache, als Basis für Grid-Storage und selbstverständlich als Speichermodul für alle möglichen Mobilgeräte.
Zwar erhöhen auch normale Festplatten ihre Kapazitäten laufend - derzeit kommen 4-TByte-Platten auf den Markt -, doch könnte es durchaus sein, dass sie früher oder später zumindest in großen Rechenzentren mit hohem Transaktionsaufkommen komplett von SSDs ersetzt werden. Ein Beleg für die Stärke des SSD-Trends ist auch, dass der Festplattenhersteller Seagate mit Virident jüngst einen Flash-Spezialisten gekauft hat, um gemeinsam mit ihm neue Lösungen zu entwickeln.
Cloud-Storage, Open Source-Storage, Automatisierung
Trend 3: Cloud-Storage professionalisiert sich
Laut IDC (Studie „Digital Universe“) werden bis 2020 etwa 40 Prozent aller erzeugten Daten im Lauf ihrer Existenz irgendwie mit der Cloud in Berührung kommen, 15 Prozent sollen sogar ganz dort gehalten werden. Gleichzeitig häufen sich, zumindest in Europa, Sicherheitsbedenken, wenn die Daten „irgendwo“ in der Cloud landen – zum Beispiel außerhalb der deutschen Landesgrenzen oder gar des europäischen Rechtsgebietes.
Die Folge: Es entstehen immer mehr an den hiesigen Bedarf angepasste, gut gesicherte und für professionelle oder gar kritische Daten geeignete Cloud-Storage-Geschäftsmodelle. Zwei Beispiele machten in diesem Kontext von sich reden: IDGuard, eine Entwicklung des Startups Uniscon und das neue Cloud-Storage-Angebot Hornetdrive von Antispameurope.
Bei solchen und ähnlichen Offerten werden Daten von Ende zu Ende verschlüsselt ausschließlich auf deutschem Boden gehalten; der Provider hat weder auf Daten noch auf die Schlüssel Zugriff. Einziger Nachteil: Verliert der Kunde den Schlüssel, sind die Daten weg.
Trend 4: Storage goes Open Source
Die Zeiten proprietärer Storage-Lösungen könnten allmählich zu Ende gehen, denn die Open-Source-Community entdeckt die Storage-Welt. Das gilt für Hardware und Software gleichermaßen. Motor sind wieder einmal Cloud Computing und Social Media, denn die Betreiber der riesigen dafür genutzten Rechenzentren haben genug von dicken Rechnungen. Beispielsweise gab die Western-Digital-Tochter HGST kürzlich bekannt, man werde sich an dem von Facebook initiierten Open Compute Project beteiligen. Auch EMC ist inzwischen mit dabei, um den Zug in die Zukunft nicht zu verpassen.
Eine vollständige Mitgliederliste veröffentlicht das Projekt leider nicht. In vielen Storage-Software-Bereichen gibt es inzwischen Open-Ansätze, beispielsweise das Filesystem SDFS (Scalable Deduplicated File System) für Deduplizierungsumgebungen, ein Produkt von Open Dedupe. Dem Speichermanagement widmet sich das Projekt OpenAttic; weitere Open-Ansätze gibt es im Bereich Netzwerk-Backup oder beim Aufbau von NAS-Systemen.
Auf der Storage Networking World 2012 präsentierte sich das Startup Inktank mit einer hochskalierbaren Grid-Storage-Lösung, die auf der Open-Source-Software Ceph und Standard-Speicherhardware (Festplatten oder SSDs) aufbaut. Inktank lebt, wie im Open-Source-Bereich üblich, von Support, Wartung und Schulungen und erfreut sich angeblich reger Nachfrage.
Trend 5: Automatisierung und Beschleunigung erleichtern das Storage Management
Immer mehr soll beim Management von Storage-Systemen selbsttätig erfolgen. Was auch immer automatisch ablaufen kann, wird automatisiert und flexibilisiert. Storage-Hypervisor wie die von Datacore sind nur ein Beispiel. So wurde im Januar von Dot Hill ein zum Patent angemeldetes Verfahren zum automatisierten Echtzeit-Tiering von Daten in mehrschichtigen Speicherarchitekturen (RealStor-Technologie) angekündigt, das der Hersteller derzeit mit den Systemen der AssuredSAN Pro 5000 Serie anbietet.
Das Verfahren verschiebt Daten gleichmäßig auf mehrere Festplatten derselben Ebene, wenn das sinnvoll ist. Ein weiteres Beispiel sind Selbstheilungsfunktionen, wie sie beispielsweise Fusion-io in seine schon erwähnten Flash-Module integriert. Overland Storage bringt eine Rapid-Rebuild-Funktion für geclusterte Storage-Umgebungen, die nur die beschriebenen Sektoren gestörter Festplatten erneuert, was viel Zeit sparen kann.
In dieselbe Kategorie gehören auch Software-definierte Storage-, Netzwerk- und RZ-Architekturen. Sie verlagern die Konfigurationsmaßnahmen so weit als möglich auf eine softwaregesteuerte Kontrollebene. Damit lassen sich beispielsweise kritische Transporte von Speicherdaten anforderungsgemäß so gestalten, dass an Daten geknüpfte Betriebsabläufe nicht mehr verzögert werden. Dass VMware den SDN (Software-defined Networking)-Spezialisten Nicira und Networking-Hersteller Brocade den SDN-Anbieter Vyatta gekauft haben, ist nur ein Beleg für die Bedeutung solcher Technologien.
Storage-Differenzierung, Business Analytics, Security
Trend 6: Storage differenziert sich weiter aus
Gleichzeitig mit dem Trend zu Open-Konzepten kontern die Hersteller von Speicherhardware mit ausdifferenzierten Konzepten für spezielle Zwecke. Einige Beispiele aus der letzten Zeit: EMC bringt eine VSPEX-Lösung eigens für Sharepoint auf den Markt. Es gibt plötzlich nicht mehr nur Systeme für „unstrukturierte Daten“, sondern wiederum andere, in denen „Object Storage“ gespeichert werden soll. Ein weiteres Beispiel liefern Grid- oder Scale-out-Storage-Konzepte. Damit sollen sich, so jedenfalls das Ziel der meisten Anbieter, irgendwann weiträumige, flexibel erweiterbare Speichersysteme aus Standardkomponenten aufbauen lassen.
Trend 7: Datenmassen revolutionieren Business Analytics
Die Unmengen von Daten, die heute ausgewertet werden können, erfordern andere Analysemethoden. Denn einerseits eröffnen sie ungleich größere Einsichtspotentiale, andererseits ist es umso leichter, wichtige Informationen im Datenberg zu übersehen. Das wird zunehmend erkannt, und nicht immer heißt die Lösung für neuartige Analysemethoden Hadoop.
Zwei Beispiele für andere Ansätze: Hypercube, das Verfahren des von BearingPoint im vergangenen Jahr eingekauften französischen Startups Effiscience. Das Analyseverfahren ist das Resultat aus 15 Jahren universitärer Entwicklungsarbeit. Es analysiert Datenberge ohne Hypothesen und jenseits der klassischen statistischen Methoden und kommt so auf Zusammenhänge, die vorher niemand vermutet hätte. Das Münchner Startup Celonis analysiert umfassend und in Echtzeit die Geschäftsprozesse von Unternehmen, wobei Terabytes von Daten in die Auswertung einfließen können. Grundlage ist hier eine über spezielle Mechanismen mit den Analysewerkzeugen verknüpfte SQL-Datenbank und nicht etwa Hadoop.
Trend 8: Schwarzes Loch Sicherheit
Die Compliance-Anforderungen steigen. Doch gleichzeitig sind die stetig wachsenden Datenmassen aus diversen Quellen nicht ausreichend abgesichert. Laut IDC trifft das auf rund die Hälfte der Daten zu. Besonders unsicher ist die Situation bei neuartigen unstrukturierten Daten aus der Echtzeit- oder M2M-Kommunikation (Machine-to-Machine). Häufig ist ungeklärt, inwieweit solche Daten überhaupt zu schützen sind.
Muss man die Kommunikation zwischen Maschinen in einer Produktionshalle etwa in das Backup einbeziehen? Was geschieht mit Social-Media-Mitteilungen von Mitarbeitern an Kunden oder untereinander? Was mit in SMS übersetzten Mitteilungen am Telefon? Und was mit den drahtlos versandten Mitteilungen medizinischer Geräte an die Arztpraxis oder die heimische Festplatte im Stunden- oder gar Minutentakt, wenn man einen Herzpatienten aus der Ferne überwacht?
Eine Fülle ungeklärter Fragen also, die auf Antwort warten. Die Anbieter von Sicherheitslösungen dürfte das Chaos eher freuen, denn auf sie warten große Umsatzchancen. Konjunktur haben derzeit übergreifende Lösungen (SIEM, Security Information and Event Management), die verschiedene Sicherheitsebenen zusammenfassen und so einen Überblick bieten; doch lösen sie neuartige Probleme wie die oben angesprochenen nicht unbedingt.
Neue Geschäftsmodelle, In-Memory-Computing
Trend 9: Cloud erzwingt neue Storage-Geschäftsmodelle
Mit dem Aufkommen von Cloud-Storage sehen die bisher relativ unangefochten agierenden Storage-Hersteller ihre alten Geschäftsmodelle bedroht. Das erfordert ein Umdenken, und das wiederum führt zu vollkommen neuen Geschäftsmodellen bei den Speicherspezialisten.
Ein Beispiel dafür ist Netapp. Peter Wüst, Director Strategic Pathways des Unternehmens, stellte jüngst das Cloud-Provider-Partnerprogramm des Herstellers vor, mit dem man sich besonders an Reseller wendet, die mit dem Aufbau eigener Cloud-Services liebäugeln. Von der Konzeption bis zur Umsetzung will man diesen zur Seite stehen. Dazu kommen Angebote, die das Cloud-Computing zögerlichen Kunden schmackhaft machen sollen.
Netapp möchte beides: Einerseits soll Unternehmen die Angst vor dem Kontrollverlust über ihre Daten genommen werden. Andererseits will man ihnen ermöglichen, von neuartigen Cloud-Services, beispielsweise Datenanalysen auf der Infrastruktur von Cloud-Providern, zu profitieren. Deshalb bietet Netapp an, Speichersysteme unmittelbar benachbart zu den Cloud-Ressourcen (zum Beispiel in einem separaten Raum des Cloud-Provider–RZ) aufzustellen.
Ein solches System und alle darauf befindlichen Daten gehören jeweils einem spezifischen Endkunden, der es kontrolliert und verwaltet; es ist aber über Kommunikationsleitungen mit dem Cloud-Provider-RZ verbunden. Die Daten werden nur genau so lange wie unbedingt nötig, um etwa eine Analyse durchzurechnen, auf das System des Providers geschoben und kehren dann sofort wieder in das in unmittelbarer Nähe befindliche Speichersystem des Endkunden zurück. So würden Datentransporte über Weitverkehrsstrecken vermieden, andererseits könnten Anwender trotzdem von neuartigen Cloud-Services und –Ressourcen profitieren.
Das Modell gibt es bisher nur in den USA, es soll jetzt aber auch in Europa eingeführt werden. Eine ähnliche Neuerung ist HPs Flexible Capacity Service. Dabei sollen Kunden, etwa neue Cloud-Provider, die sich ihres Erfolgs noch nicht sicher sind, gegen eine Grundgebühr Storage, Server oder Netzwerke bei sich aufstellen können, ansonsten aber ausschließlich nutzungsbezogen abrechnen und die Systeme selbst verwalten können. Besonders relevant ist dieses Angebot wahrscheinlich für die hochskalierbaren, aber nicht eben billigen 3Par-Systeme.
Trend 10: In-Memory-Computing kommt
Weil bei steigenden, zentral gehaltenen Datenmassen und Echtzeit-Bearbeitungsanforderungen der Datentransport zum Engpass wird, beginnt man, Verarbeitungsaufgaben vom Server weg und direkt in die Cloud-Speichersysteme auszulagern. Das entlastet Netzwerke und Serverprozessoren und spart Zeit. Vision Cloud etwa, ein europäisches Projekt mit einem Budget von 16 Millionen Euro, befasst sich damit, wie man unstrukturierte Daten mit Hilfe kleiner Programmschnipsel („Storlets“) direkt in der Cloud verarbeitet, analysiert und in Geschäftsprozesse integriert.
Koordinator des Vorhabens ist IBM, wichtige Teile wurden an der Universität von Athen entwickelt. Weitere Beteiligte sind der italienische Sender RAI, SAP, Siemens, Orange und viele andere. Auch HP hat den Trend zum In-Memory-Computing erkannt und ein Entwicklungszentrum (Center of Excellence) dafür eröffnet. Hier sollen neuartige Lösungen für SAP HANA und die SAP Business Suite entwickelt werden. (Der Beitrag wurde von der CP-Schwesterpublikation
Computerwoche
übernommen / rb)