Virtualisierung, Cloud-Storage und leistungsstarke SSD-Systeme gehören zu den Storage-Trends, die IT-Entscheider im Auge behalten müssen.
von Ariane Rüdiger (freie Journalistin in München)
Wer in großen oder mittelständischen Unternehmen für Storage- oder Daten-Management verantwortlich ist, hat keinen leichten Job. Die Anforderungen an die Verfügbarkeit, Qualität und Sicherheit der Daten wachsen stetig. Wir haben die 10 wichtigsten Storage-Trends zusammengetragen und erläutern, wie sich IT-Manager und CIOs darauf einstellen sollten.
Auf den folgen Seiten erklären wir die Megatrends in der Speicherszene ausführlich, unsere Bilderstrecke gibt Ihnen einen schnellen Überblick.
Trend 1: Die Datenberge wachsen weiter – die Märkte wachsen mit.
Mehr als ein Zettabyte (eine 1 mit 21 Nullen) umfasste 2010 die weltweit produzierte Datenmenge, wie IDC in einer von EMC gesponserten Studie herausfand. In diesem Jahr soll das „digitale Universum“ auf 1,8 Zettabyte anschwellen. Ständig und überall werden neue und hochvolumige Datenmengen produziert. Dazu tragen Daten in Nicht-SQL-Formaten („unstrukturierte Daten“), beispielsweise Bilder, Sounds oder E-Mail-Anhänge, den Löwenanteil bei. Kein Wunder also, dass der Speichermarkt wächst, obwohl die Preise pro Gigabyte weiter fallen. Im Storage-Segment Arbeitsspeicher kostet das Gigabyte derzeit teilweise weniger als 4 Euro, Speicherplatz auf einer SSD (Solid State Disk) ist schon für einen Euro pro Gigabyte zu haben und günstige Festplatten bekommt man in hohen dreistelligen Gigabyte-Kapazitäten für unter 100 Euro. Das setzt dem Umsatzwachstum der Storage-Hersteller Grenzen, auch wenn der Preisverfall im Enterprise-Geschäft durch hochwertige Lösungen mit viel Software langsamer vonstatten geht. Der Speichermarkt soll in Deutschland 2011 laut BITKOM (Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V.) um 2,5 Prozent wachsen. Für das kommende Jahr, das schon mit vielen trüben Prognosen belegt wurde, rechnet der Verband immerhin noch mit einer Steigerung um 1,5 Prozent.
Trend 2: SSD-Storage wird selbstverständlich
Die schnellen SSD-Speicherbausteine ohne bewegliche Teile haben sich durchgesetzt und werden mittlerweile in vielen Systemen zumindest als Option empfohlen. Diverse Storage-Anbieter setzen hauptsächlich oder ganz auf SSD- oder einfache NAND-Zelltechnologie und machen damit gute Geschäfte. Einige Beispiele: Schon länger auf dem Markt sind Viking oder Fusion-io, die Speichermodule für die Integration in Server liefern. Hier erhöhen sich Kapazitäten und Geschwindigkeit, aber auch die Vielfalt der Anwendungen. Vikings aktuelles Produkt ArxCis-NV etwa integriert DRAM, Flash-Speicher und einen Superkondensator zu einem USV-Ersatz. Bei Stromausfall liefert der Kondensator Strom, bis die Daten vom DRAM in den Flash-Speicher übertragen wurden. Ein SSD-Modul für den Server mit direkter Einbindung in die Tiering-Architektur der gesamten Speicherinfrastruktur plant EMC. Es soll als vorgelagerte Speicherschicht 0 ohne Kanalverzögerung dienen.
Zudem entwickeln immer mehr Hersteller SSD-Komplettsysteme. Violin etwa liefert Boxen mit 20 TByte Kapazität fürs 19-Zoll-Rack. Sie sollen dank eines patentierten Mechanismus, der Zellen beschreiben kann, ohne sie vorher zu löschen, Datenbanken beschleunigen und Hochverfügbarkeit garantieren – bis zu 250000 Ein-/Ausgaben pro Sekunde schaffen die Systeme laut Hersteller. Der US-Newcomer Solidfire hat gerade erfolgreich Geld bei Investoren eingesammelt. Er baut für Cloud-Provider optimierte SSD-Primär-Storage-Systeme, ist aber in Deutschland noch nicht auf dem Markt.
Trend 3: Cloud-Storage kommt
Es sieht so aus, als würde Cloud Computing zumindest mittelfristig zum Erfolgsmodell. Wenig verwunderlich, häufen sich die Angebote an neuartiger Hardware, Software und Dienstleistungen für diesen Markt. Besonders wichtig sind in diesem Zusammenhang Flexibilität, Skalierbarkeit und Sicherheit. Ein Hardwarebeispiel ist IBMs kürzlich vorgestelltes System SONAS. Es speichert bis zu 21 Petabyte Non-SQL-Daten unter einem Dateisystem, lässt sich clustern und sortiert die Daten automatisch in verschiedene Schichten (Tiers). Scality, ebenfalls Anbieter hochskalierender Cloud-Storage, arbeitet mit dem Kollaborationsspezialisten TeamDrive zusammen. Dabei sollen Lösungen entstehen, mit deren Hilfe die Daten mobiler Systeme direkt mit denen in einer Cloud synchronisiert werden können.
Datacore bietet Cloud-Providern seinen Storage-Hypervisor SAN Symphony-V nun als Mietmodell an. Auch neue Storage-Hypervisoren, die auf den Umgang mit virtuellen Maschinen zugeschnitten sind, machen von sich reden. Ein Beispiel dafür ist Virsto. Dieser Hypervisor schreibt die Daten der virtuellen Maschinen in Streaming-geschwindigkeit in ein Logfile, dessen Inhalte dann in ein spezifisches Primärspeichersegment übertragen und von dort später an das zur VM gehörende Speichersegment übertragen werden. Das soll den Daten-Output von VMs, die auf Speicher mit dynamischer Segmentierung durch Thin Provisioning zugreifen, erheblich beschleunigen.
Einige interessante Lösungen haben nicht ausschließlich, aber auch mit Storage zu tun: Etwa die Cloud-Management-Software Extility von Flexiant. Die britische Abo-Lösung kommt als Komplettpaket für 1000 Pfund pro Monat und verwaltetem Knoten. Damit kann man einzelne Segmente der Cloud-Infrastruktur mit allen Elementen unter unterschiedlichen Betriebssystemen gemeinsam administrieren. Das erhöht die Flexibilität der Cloud-Provider, die nun VMware-basierende Bereiche mit anderen unter Hyper V oder Xen kombinieren können.
Einen Schutz vor US-amerikanischen Datenzugriffen will der Spezialist für Cloud-Management-Software Severalnines gemeinsam mit City Network garantieren. Das rein europäische Konsortium bietet Testnutzern derzeit die Beta-Version seines Cloud-gestützten Datenbankdienstes (Database as a Service) an. Er soll die EU-Richtlinie zum Datenschutz 95/46/EG vollständig einhalten.
Trend 4: Schnellere Netze für mehr Daten
Cloud-basierende Infrastrukturen verlangen von den Netzen mehr Leistung. Lösungen für die WAN- und Anwendungsbeschleunigung werden daher wichtiger, was auch Speicherhersteller erkennen. So hat etwa AMI Storage nun in seine Storage-Management-Software WAN-Beschleunigungsfunktionen integriert. Auch Emulex argumentiert für seine Version 2.0 des I/O-Management-ProduktsOneCommand Vision vor allem mit der dadurch erzielbaren Anwendungsbeschleunigung. Neu daran sind mehr Bandbreite, Multichannel-Überwachung und verbesserte Benutzerschnittstellen.
Trend 5: Einfacheres Storage Management
In rasch wachsenden Umgebungen mit knapper Personaldecke brauchen Storage-Verantwortliche vor allem Lösungen, die ihnen die Arbeit vereinfachen. Beispielsweise sterben umständliche Port-Konfigurationsmechanismen in neuen Produktgenerationen aus. So beherrschen beim Storage-Switch UA5900 und dem Storage-Router iSR aus Qlogics neuer Serie FlexSuite grundsätzlich alle Ports alle wichtigen Protokolle in unterschiedlichen Geschwindigkeiten. Das System erkennt selbsttätig, mit welcher Verbindung es bestückt wurde. Allein das kann Stunden sparen. Virtual Instruments ergänzt seine sensorbasierende Analyselösung für SANs durch SAN Insight, einen Switch, der auf der physikalischen Schicht des Speichernetzes arbeitet. Damit lassen sich die verwendeten Sensoren flexibler nutzen und der Managementaufwand senken, etwa indem die überwachten Verbindungen zu Gruppen gebündelt werden.
Trend 6: Unified Storage und spezialisierte Systeme
Der Markt für Speicherhardware lässt Raum für Unified Storage und spezialisierte Systeme - Hauptsache, sie skalieren. Neben „Generalisten“ stehen Appliances, die für Sonderzwecke ausgelegt sind. Einige Beispiele: Das neue Highend-Modell von Fujitsu, DX8700 S2, speichert Blockdaten und ist laut Hersteller „das erste Rackmount Enterprise-Array“. Es kommt mit Fibre Channel-, FCoE- und iSCSI-Schnittstellen und skaliert von einigen wenigen bis auf 3072 SSD-, SAS- oder Nearline-SAS-Platten in gemischter Konfiguration. Auch IBM brachte jüngst eine neue Version seines Enterprise-Systems DS8000 auf den Markt, das bis auf 1500 Laufwerke unterschiedlicher Art skaliert. Daten werden automatisch in die richtige Speicherschicht des Systems einsortiert und dort möglichst gleichmäßig verteilt. Demgegenüber speichert die neue Unified-Storage-Appliance von IBM, StorWize V7000, Daten als Block und File. Es verschiebt sie regelbasiert auf den gewünschten Laufwerkstyp und kommt mit einer einfachen Managementschnittstelle.
Die zwei Systeme der AssuredSAN-Serie von Dot Hill sind dagegen auf sequenzielle Lasten wie Video optimiert, der Hersteller empfiehlt sie aber auch für geschäftliche Anwendungen. Sie besitzen FC- und iSCSI-Schnittstellen und fassen bis zu 144 SAS-, SATA- oder SSD-Drives. Snap-, Sicherungs- und eine Remote-Replizierungsfunktion werden mitgeliefert. Die für VMware-Umgebungen gedachte Turbo NAS-Serie von Qnap besteht aus sieben unterschiedlich dimensionierten Standalone- und fünf Rack-Geräten. Sie unterstützen iSCSI und Ethernet, aber kein Fibre Channel. Anwendungsfelder sind zum Beispiel gemeinsam genutzte Testumgebungen und Primärspeicher für VMware-Umgebungen.
Avere ist ein Spezialist für hoch skalierbare, räumlich verteilte NAS-Systeme. Die FTX-Appliances des Herstellers, eine Mischung aus Gateway und Cache, haben drei Speicherschichten (RAM, SSD und SAS). Mehrere Boxen lassen sich beliebig, auch geografisch verteilt, zu einem größeren System skalieren, das über ein globales Filesystem die Daten auf den angeschlossenen Festplattenspeichern unabhängig vom Speicherort abfragt. Je nach ihrer Struktur und der Abfragehäufigkeit sortiert das Filesystem Daten in die drei Speicherschichten im System oder die angeschlossenen Disks, die als Archiv betrachtet werden.
Trend 7: Big Data braucht neue File-Systeme
Big Data wirft seine Schatten voraus – und das bedeutet unter anderem die Verbreitung globaler, parallel und verteilt arbeitender Filesysteme, die riesige Datenmengen verwalten können. IBM, Quantum, EMC und viele andere sind hier schon länger aktiv. Derzeit macht die Open-Source-Variante Lustre von sich reden. Zukunftsfähige Speichersysteme, die sich im Cloud- oder Big-Data-Bereich bewähren sollen, unterstützen am besten mehrere der Lösungen – so hat sich Netapp bei seiner E-Series entschlossen, neben Lustre auch Quantums StorNext zu supporten.
Trend 8: Backup und Revovery – mehr Schein als Sein
Bei Datensicherung und Disaster Recovery gilt: Theorie hui, Praxis pfui! Zwar betont die Storage-Branche ständig und nicht ganz uneigennützig die Notwendigkeit einer lückenlosen Datensicherung, doch verhallt der Ruf in der Praxis teils ungehört. So scheint es jedenfalls nach einer aktuellen, von EMC lancierten und von Vanson Bourne durchgeführten Studie, bei der 1750 Unternehmen ab 1000 Mitarbeitern in Europa zum Thema Datenverluste befragt wurden. Von ihnen berichteten immerhin 54 Prozent, sie hätten im vergangenen Jahr entweder Daten verloren oder Systemausfälle erlitten. Der durchschnittliche Verlust lag dabei in Deutschland bei 142 GByte, die durchschnittliche Wiederherstellungszeit bei einem Tag. 61 Prozent der Befragten sagten, Hardwarefehler hätten die Zwischenfälle verursacht. 43 Prozent verzeichneten dadurch Produktivitäts-, 28 Prozent Umsatzverluste. Die Branche versucht, dem Missstand durch verbesserte Produkte abzuhelfen. Beispielsweise hat Quantum mit VMpro eine Software speziell für die Sicherung virtueller Maschinen herausgebracht, die Dubletten innerhalb der Maschinen vermeidet und Restores sogar einzelner Dateien aus VMs ermöglicht. Falconstor ergänzt seine Data Protection Suite in Version 7 unter anderem um CDP (Continuous Data Protection), VTL (Virtual Tape Libary-Funktionen) und FDS, eine Deduplizierungstechnik für die Disk-to-Disk-Sicherung von Filedaten.
Trend 9: Storage-Anbieter entdecken den Mittelstand
Der Mittelstand braucht dringend professionelles Backup-Equipment. Wer einen Webshop betreibt oder Online-Services anbietet, ist aufgeschmissen, wenn seine Daten verloren gehen und die Verfügbarkeit schlecht ist. Oft sind diese Unternehmen aber weder groß noch zahlungskräftig. Deshalb offerieren immer mehr Hersteller Profi-Funktionen wie Deduplizierung in bezahlbaren Formaten. Einige Beispiele stellvertretend für viele Ankündigungen: Saytec verbindet Virtualisierung und Backup der virtuellen Maschinen in Sayfuse VM Backup. Das Gerät hat zwölf Speicherslots und kostet 7980 Euro. Erweiterungsmodule gibt es für 1900 Euro.
Netapp hat die Einsteiger-Serie FAS 2000 überarbeitet. Anwender können jetzt schon ab 5000 Euro das aktuelle Einstiegssystem FAS2040 erwerben, das mehr Speicher als die Vorversion und die gleichen Basisfunktionen wie die großen Produkte bietet.
Imation meldet sich gleich mit einer ganzen Serie neuer Archivierungs- und Backup-Produkte zurück; die auf die Bedürfnisse kleinerer Firmen zwischen 10 und 999 Mitarbeitern zugeschnitten sind. Die drei Infinivault-Systeme beispielsweise verstehen sich als Mittelstück einer Speicherhierarchie aus Harddisks im oder am Rechner, Nearline-Speicher (Infinivault) und später externem Cloud-Storage als Archiv. Sie speichern zwischen 1,8 und 120 TByte und kosten zwischen 5000 und 50.000 Euro. DataCores Star HA-Lösung soll Hochverfügbarkeit in Microsoft Hyper-V-Umgebungen bezahlbar machen. Bis zu 16 Hyper-V-Hosts werden an den zentralen Star-HA-Server sternförmig angeschlossen. Der spiegelt deren sämtliche Laufwerke bis auf das Boot-Laufwerk. Außerdem kann der Star-Server sämtliche Daten auf einen Disaster-Recovery-Server überspielen. Fällt einer der angeschlossenen Hosts aus, greifen die Anwender auf den Star-Server zu, bis der Host wieder repariert ist. Eine Lösung mit zwei Clients und 2 TByte Speicher im zentralen Server kostet 9900 Euro. Quantum bringt zwei Systeme für jeweils 8 TByte NAS-Daten in Windows-Umgebungen. Das reine Primärstorage-System NDX-8 kostet 4030 Dollar. In der NDX-8d (5040 Dollar) steckt zudem die agentenlose Deduplizierungs- und Backupsoftware Datashield, die das nötige Backup-Volumen erheblich verringert. Deren Handhabung sei, so der Hersteller, sei viel einfacher als die des Traditionsprodukts Backup Exec.
Trend 10 Auch Storage-Systeme werden grün
Die Testroutinen für das Emerald-Programm des Industrieverbands SNIA (Storage Networking Industry Association), die den Stromverbrauch von Speichersystemen nach standardisierten Verfahren messen, sind endlich fertig. Zwar sind die Tests freiwillig und werden von den Herstellern selbst durchgeführt. Die SNIA bestätigt später lediglich die Konformität der Ergebnisse. Doch ist das allemal besser als nichts. Testergebnisse stehen im Web zum Download bereit. Anwender können also endlich prüfen, ob sie sich einen sparsamen Storage-Flitzer oder einen nimmersatten Stromfresser ins RZ holen. Speichersysteme der Zukunft werden auf jeden Fall sparsamer. Die aktuelle Speicherchipgeneration lässt Rückschlüsse darauf zu, welche Qualitäten künftige Systeme aufweisen werden. Noch sind demnach Effizienz- und Speed-Reserven auf Chipebene drin. LSI stellte beispielsweise mit PA5100 und PA5200 jüngst Vorverstärker-Kreise für Festplatten aller Art vor, die bei 25 Prozent mehr Leistung bis zu 35 Prozent weniger Strom verbrauchen.
(Dieser Beitrag wurde von der ChannelPartner-Schwesterpublikation Computerwoche übernommen / rb)