Die zu speichernde Datenmenge in deutschen Unternehmen steigt Untersuchungen zufolge jährlich um rund ein Drittel. Gleichzeitig gibt es durch virtuelle Server veränderte Bedingungen für die Datensicherung. Herkömmliche Backup-Verfahren müssen deshalb überdacht werden.
von Mario Werner
Während die Mehrzahl der Sicherungslösungen in Unternehmen noch auf einen Gigabyte-Bereich ausgelegt ist, umfasst das tatsächliche Datenvolumen von Backups oft längst mehrere Terabyte pro Tag. Die Belastung für Server, Netzwerk und Zielmedien ist daher enorm.
Gleichzeitig virtualisieren immer mehr Unternehmen ihre Server, so dass die klassischen filebasierten Datensicherungsverfahren endgültig an ihre Grenzen stoßen. Bis Ende 2012 wird laut Gartner die Hälfte aller Server-Workloads in Rechenzentren mit x86-Servern auf virtualisierten Systemen laufen. Im Enterprise-Segment beträgt die Wachstumsrate im Jahresvergleich 14 Prozent.
Um diese Belastung in den Griff zu bekommen, setzen bereits über die Hälfte aller Unternehmen mehrere Backup-Lösungen parallel ein. Neben File-basierter Backup-Software, die laut einer im Jahre 2011 durchgeführten Studie von Syncsort und UBM TechWeb bei rund 80 Prozent aller Unternehmen zum Einsatz kommt, sind das anwendungsspezifische Lösungen, Snapshot-Lösungen, spezifische Backup-Software für virtualisierte Umgebungen, Disk-Array-Datenreplikation und viele mehr. Dabei würden die meisten Unternehmen eine einzige Lösung bevorzugen. Dies zeigt, dass bereits die Anforderungen in physischen Umgebungen hoch sind und mit zunehmenden virtuellen und heterogenen Systemlandschaften weiterhin ansteigen. Wen wundert es da, dass sich immer mehr Firmen die Suche nach einer effizienteren Sicherungslösung auf die Fahne geschrieben haben.
Neue Anforderungen durch virtuelle Umgebungen
Die Virtualisierung der Server-Landschaft bringt wesentliche Veränderungen hinsichtlich der Datensicherung mit sich. Wenn ein physikalischer Server, der vorher zu lediglich 10 oder 15 Prozent ausgelastet war, nun mit bis zu 90 Prozent beansprucht wird, leiden die Festplatten-Ressourcen, die CPU-Zeit des Hosts sowie die Netzwerkbandbreite. Folglich stehen auch weniger Systemressourcen für das Backup zur Verfügung.
Der erste Schritt heißt somit: Ressourcen schonen. Das beginnt bereits vor der Speicherung, indem die zu speichernde Datenmenge reduziert wird. Einer der grundlegenden Ansätze hierfür ist etwa die Datenkompression, bei der häufig vorkommende Zeichensequenzen innerhalb einzelner Dateien durch möglichst kurze Repräsentanzen ersetzt werden. Dadurch kann bis zu 50 Prozent des Speicherplatzes zurückgewonnen werden.
Noch effektiver ist die Nutzung von Techniken der Deduplizierung. Anstelle von sich wiederholenden Abschnitten werden dabei Platzhalter eingesetzt. Vor allem die blockbasierte Methode mit ihrer sehr feinen Granularität ist äußerst effizient und ermöglicht Einsparungen von weit über der Hälfte des bisher notwendigen Speicherplatzes.
Effizienter speichern ist nur der erste Schritt
Bei einer IDC-Umfrage unter IT-Entscheidern aus dem Jahre 2011 gab ein Drittel der Befragten an, mit einer neuen Speicherlösung für ihre virtualisierte IT-Umgebung auch gleichzeitig eine passende integrierte Backup- und Disaster Recovery-Lösung erhalten zu wollen.
Das Angebot ist breit und erstreckt sich von traditionellen über speichersystembasierte Lösungen für physikalische und virtuelle Systeme bis zu für ausschließlich virtuelle Umgebungen ausgelegten Optionen. Sie alle sorgen mittels Datenreduktionstechniken wie der Deduplizierung auf Blocklevel für kleinere Datenmengen und kürzere Backup-Fenster. Darüber hinaus gibt es Tools für Continuous Data Protection (CDP), die alle Daten kontinuierlich erfassen und Unternehmen so unabhängig von Backup-Fenstern machen. Das vielfältige Angebot macht es für viele Unternehmen nicht gerade einfach, eine für sie passende Lösung zu finden. Werden jedoch bestimmte Vorüberlegungen und Auswahlkriterien in Betracht gezogen, lässt sich schnell Licht ins Dunkel bringen.
Integration auf breiter Ebene
Das oberste Gebot bei der Planung moderner Datensicherungssysteme ist die einfache Einbindung in die bereits bestehende Systemlandschaft. Normalerweise erfolgen Backups Festplatten-basiert (disk-to-disk), aber die Sicherung auf Tape wird oftmals noch als Primär- oder Zweitspeichermedium verwendet.
Eine zukunftssichere Lösung sollte daher möglichst mit allen verwendeten und zukünftig denkbaren Medien kompatibel sein und die Integration von Tape unterstützen, denn gerade die kostengünstigen Bänder sind hinsichtlich der Langzeitarchivierung von Daten weiterhin eine gute Alternative zur Festplatte. Neben der Einbindung in die existierende Hardware sollten Datenschutzlösungen darüber hinaus fähig sein, jede Art von System und Applikation zu erkennen, da vor allem geschäftskritische Anwendungen wie CRM oder ERP verstärkt Einzug in die virtualisierte Welt halten. Dabei ist es wichtig, dass alle Daten einer Anwendung inklusive ihrer Struktur und ihrem Leistungsverhalten identifiziert und integriert werden können. Ist diese "Application-Awareness" nicht gegeben, kann im Ernstfall eine Anwendung nicht mehr in vollem Umfang wiederhergestellt werden.
Snapshot-basierte Techniken für virtuelle Maschinen
Ein weiterer wichtiger Punkt bei der Entscheidung für eine moderne Backup- und Disaster Recovery-Lösung ist die Wiederherstellung von Daten in virtuellen IT-Landschaften. Dateien in physischen Umgebungen wiederherzustellen, ist meist kein Problem. Eine vollständige virtuelle Maschine wiederherzustellen, ist jedoch komplex, zeitaufwendig und schlägt nicht selten fehl.
Noch spannender wird das Thema, wenn es darum geht, physikalische Maschinen im Bedarfsfall schnell und einfach als virtuelle Maschine wiederherzustellen. Effektiv sind daher Lösungen, die auf plattenbasierte Snapshots setzen. Ein Snapshot erstellt ein Image der virtuellen Maschine zum aktuellen Zeitpunkt in einem systemeigenen Format. Die Daten werden katalogisiert und können so leicht wiedergefunden werden.
Snapshot-basierte Verfahren sind laut der anfangs erwähnten Studie von Syncsort und UBM TechWeb momentan noch eher wenig verbreitet. Das ist vor allem darauf zurückzuführen, dass der Snapshot meist auf dem primären Speicher liegt, worunter die Geschwindigkeit und Performance des Systems leiden. Ideal sind somit Backup-Lösungen, die Snapshots auf den sekundären Speicher verlagern und den Primärspeicher entlasten.
Granulare Datenwiederherstellung für mehr Flexibilität
Muss nach einem Datenverlust nicht eine komplette virtuelle Maschine neu aufgesetzt werden, sondern geht es lediglich um das Auffinden und Wiederherstellen einzelner Dateien, sollte die granulare Datensicherung (Granular Recovery Technology oder GRT) zum Einsatz kommen. Damit lassen sich aus einem einzigen Backup granulare Elemente in Exchange-, SQL- oder Active-Directory-Anwendungen extrahieren. Das System erhält quasi ein Bewusstsein über die einzelnen Elemente eines Backups. Darüber hinaus erfasst es diese in einem Dateikatalog und vermittelt so dem Anwender jederzeit Kenntnis der genauen Inhalte. Eine moderne Datensicherungslösung sollte daher immer plattenübergreifend unterschiedliche Wiederherstellungsoptionen für die physikalische und die virtualisierte Welt besitzen.
Mit oder ohne Agent ist nicht die Frage
Viele derzeit am Markt verfügbare Lösungen operieren über Agenten, die in den Zielsystemen Datenkopien erzeugen und an den zentralen Backup-Server senden. In virtuellen Umgebungen können die einzelnen Systeme zwar ebenfalls durch Agenten gesichert werden, nur geht es auch wesentlich einfacher. Beispielsweise durch agentenloses Backup - ein Verfahren, das hohe Verfügbarkeit bei geringem Aufwand verspricht. Zudem ist es oftmals weniger kostspielig, da bei einer agentenbasierten Lösung für jede virtuelle Maschine ein Agent und damit auch eine Datensicherungslizenz notwendig sind.
Die Sicherung der virtuellen Maschinen erfolgt beim agentenlosen Backup durch den Host. Es wird einfach ein Snapshot / Image der gesamten virtuellen Maschine erstellt und abgelegt. So kann bei Bedarf jede virtuelle Maschine schnell wieder nachgebildet werden. Ein Snapshot kann jedoch immer nur ein Abbild der virtuellen Maschine zu einem bestimmten Zeitpunkt liefern. Mittels dieser Technik allein kann daher keine erfolgreiche und konsistente Wiederherstellung von Anwendungen garantiert werden. Um dem vorzubeugen, kommen separate Skripte zum Einsatz. Diese können laufende Anwendungen in einen konsistenten Zustand bringen. Gleichzeitig steigern sie aber die Komplexität und Fehleranfälligkeit des Backups. Anders formuliert, führt beim Einbezug geschäftskritischer Anwendungen die Vereinfachung des Backups auf Basis eines Snapshots einer kompletten virtuellen Maschine zu einer höheren Komplexität im Falle einer Wiederherstellung.
Ob nun mit oder ohne Agent, die Frage für die Zukunft ist nicht wie, sondern eher was wiederhergestellt werden soll. Geht es beispielsweise um eine Anwendung oder eine Datei, bietet sich ein Verfahren mit einem Backup-Agenten an, bei der Wiederherstellung eines kompletten virtuellen Servers spielt das Verfahren ohne Backup-Agenten seine Stärken aus. Ideal sind somit Lösungen, die beide Optionen bieten, quasi als "duales System".
Lizenzierungsmodelle: Vergleich lohnt
Speziell bei der Virtualisierung kann sich das Einholen mehrerer Angebote sehr stark auf die Gesamtkosten auswirken, da selbst bei ein und demselben Anbieter unterschiedliche Lizenzierungsangebote mit starken Preisunterschieden möglich sind.
Entscheidend für die Überlegung ist der zukünftige Bedarf, nicht die aktuelle Situation. Unternehmen sollten daher vorher genau überlegen, wie die IT-Landschaft in den kommenden zwei bis drei Jahren aussehen soll. Danach kann das günstigste Angebotsmodell herausgesucht werden und entweder pro Server, pro virtueller Maschine oder nach Kapazität abgerechnet werden. Vor allem Letzteres kann für viele Unternehmen durchaus lohnenswert sein, da gerade im Rahmen der Server-Virtualisierung schnell ein paar neue Maschinen angelegt sind, ohne dass sich die Datenmenge wesentlich ändert.
Die größte Rolle bei der Auswahl spielt daher die Flexibilität der Lösung. Einfach implementierbar in die bestehende IT-Infrastruktur, kompatibel mit den vorhandenen Speicherlösungen und skalierbar sollte sie sein. Während des Speicherprozesses sollten Datenreduktionsverfahren für ein Minimum an zu speichernder Datenmenge und unterschiedliche Erfassungsoptionen wie Snapshots oder granulare Datensicherungsverfahren für ein Maximum an Effizienz bei der Datenwiederherstellung sorgen.
Schließlich sollte die neue Lösung sowohl agentenbasiertes als auch agentenloses Backup unterstützen. So sind Unternehmen nicht gezwungen, Schwerpunkte hinsichtlich der Sicherung von Anwendungen oder Dateien zu setzen, da die jeweils optimale Variante immer zur Verfügung steht.
Dieser Artikel wurde von der CPSchwesterpublikation TecChannel übernommen / rb)