Tiered Storage

Kosten sparen durch intelligentes Daten-Management

30.09.2010 von Hans  Schramm
Mit intelligentem Datenmanagement lässt sich eine Menge Geld sparen - ein hervorragendes Verkaufsargument für eine Tiered-Storage-Architektur, meint Hans Schramm, Field Product Manager Enterprise bei Dell.

Mit intelligentem Datenmanagement lässt sich eine Menge Geld sparen - ein hervorragendes Verkaufsargument für eine Tiered-Storage-Architektur, meint Dell-Manager Hans Schramm:

Das A und O für ein optimiertes Datenmanagement ist eine Tiered-Storage-Architektur. In einer solchen Architektur ist Tier 1 für Daten reserviert, die oftmals schnell wieder zurückgespeichert werden müssen: zum Beispiel E-Mails des Managements. Diese Daten sollten sich auf Disks in hochperformanten SAS-Arrays befinden.

Tier 2 dient der Datenspeicherung für den mittelbaren Zugriff. Dafür geeignet sind billigere und nur durchschnittlich schnelle Disks in SATA-Arrays mit hoher Kapazität.

In den letzten fünf Jahren wurden rund 50.000 Petabyte an Speicherplatz verkauft. Laut Symantec werden die Daten darauf zu 75 Prozent auf unbefristete Zeit gespeichert. Das sind immerhin noch 37.500 Petabyte – Wäre das Volumen auf Magnetbänder gespeichert, hätte man genug Tape, um es 13 Mal von der Erde zum Mond und zurück zu spannen. Dann bliebe immer noch genug übrig, um sieben Mal damit die Erde zu umwickeln.
Das menschliche Gehirn schafft es immerhin, circa vier Terabyte zu speichern, also rund 4.096 GB. Dies entspricht der Datenmenge, die auf 935 DVDs Platz hat.
Mehrere Personen haben versucht die gesamte Datenmenge im Internet in Gramm umzurechnen. Heraus kamen überraschend niedrige Zahlen: Je nach Autor soll das Gesamtgewicht des Internets zwischen 0,00005 und 50 Gramm liegen.
Das älteste magnetische Festplattenlaufwerk, die „IBM 350“kam 1956 auf den Markt. Bei der Größe eines Kühlschranks konnten damals lediglich 4,4 MB gespeichert werden. Wenn man 1 GB Speicherplatz erwerben wollte, kostete das 10 Millionen Dollar.
Heutige 2,5-Zoll-Laufwerke messen 10 x 7 Zentimeter und können Daten bis zu einer Menge von einem Terabyte speichern. Ein Gigabyte ist je nach Platte und Größe für 10 bis 30 Cent zu haben. Wer eine schnelle Flash-Festplatte (SSD) vorzieht, zahlt immerhin noch zwei bis zehn Euro pro GB.
Während es 51 Jahre gedauert hat, ein Laufwerk zu entwickeln, das ein Terabyte fassen kann, dauerte es anschließend nur zwei weitere Jahre, um das Speichervolumen auf zwei Terabyte aufzustocken.
Das erste Laufwerk, das endlich mit einer Speicherkapazität von einem GB aufwarten konnte, wurde erst 1980 von IBM entwickelt. Es wog 250 Kilogramm – so viel wie ein ausgewachsenes Löwenmännchen.
Auf eine CD passen genau 74 Minuten Musik. Warum eigentlich? Angeblich ließ Sony dies so entwickeln, weil das Lieblingsmusikstück des damaligen Vizepräsidenten – die neunte Symphonie von Beethoven in einer Version von Wilhelm Furtwängler – eben genau so lange dauerte.
Schon seit Jahren wird Tesafilm als Speichermedium der Zukunft gehandelt. Das Klebeband ist temperaturbeständig, weist eine große Reinheit auf und hat genau die richtige Dicke. Ein kommerzielles Storage-Produkt auf Tesa-Basis gibt es aber bis heute nicht.
In nicht allzu ferner Zeit soll ein Bakterium mit dem schönen Namen Deinococcus radiodurans als Datenspeicher in der Informationstechnik genutzt werden. US-amerikanischer Forscher hatten bereits erste Erfolge: Sie übersetzten ein amerikanisches Kinderlied in den genetischen Code des Bakteriums und schleusten die Sequenz in das Bakterium ein. Die Strophen des Kinderlieds konnte man noch nach 100 Bakteriengenerationen unverändert wieder auslesen.

Tier 3 ist für die Sicherung und Archivierung von Informationen gedacht, bei denen die Zeitvorgaben für die Wiederherstellung der Daten, die Recovery Time Objectives (RTO), nicht kritisch sind. Es kann auf Tapes basieren, die nach wie vor die kosteneffizienteste Lösung für ein längerfristiges Backup in diesem Bereich darstellen.

Viele Anwender schrecken vor der Implementierung einer solchen Tiering-Architektur zurück, da sie zu komplex und mit einem erheblichen zeitlichen Administrationsaufwand verbunden sei. Diese Bedenken sind jedoch unbegründet: eine intelligente Datenmanagement-Lösung enthält heute Technologien, mit denen Daten automatisch auf unterschiedliche Tiers verteilt werden können, und zwar abhängig von ihrer Wichtigkeit: wichtige Daten auf schnelle Platten und weniger wichtige Daten auf eher langsame Platten.

Effizizienz durch Deduplizierung

Was beim Backup und Tiering oft vergessen wird, ist die Notwendigkeit einer "effizienten" Datensicherung. Die Lösung lautet hier Deduplizierung, also die Eliminierung redundanter Daten. Sie war vor gut drei Jahren noch ein neues und mehr oder weniger experimentelles Feature, das nur von einer Handvoll von Storage-Providern angeboten wurde.

Heute hingegen gehört es zu den Standard-Anforderungen an Storage-Lösungen. Die Anzahl der konkreten Anwender ist allerdings immer noch begrenzt. Das liegt daran, dass Deduplizierung ein recht komplexes Thema ist und bei einer wirklich effektiven Nutzung mehrere Dinge zu beachten sind: zum Beispiel die "Art" (File-Level, Block-Level oder Subblock-Level) und der "Ort" (auf dem Media-Server oder bereits auf der Applikationsseite).

Oder auch, ob es sich um eine Lösung innerhalb der Backup-Software oder um eine dedizierte Deduplizierungs-Appliance handelt, also ein Gerät, das dedupliziert und gleichzeitig auch das Speicher-Array ist. Hier sollte sich der Anwender bei seinem IT-Provider auf jeden Fall detaillierte Informationen einholen, was möglich und für ihn am besten geeignet ist, wie es geht, was es kostet und welche konkre-ten Vorteile es bringt.

Unbestritten ist, dass die Storage-Anforderungen durch das exponentiell wachsende Datenvolumen in den kommenden Jahren weiter steigen werden. Und Technologien und Lösungen, mit denen sie erfüllt werden können, gibt es bereits. Mit Investitionen in aktuelle Storage-Management-Technologie können Unternehmen sich schon heute für die Zukunft wappnen - verbunden mit einer sofortigen Reduzierung von Kosten und Administrationsaufwand.

Der Autor

Hans Schramm ist Field Product Manager Enterprise bei Dell.

http://www.dell.de