Wer Backup und Recovery nur als lästige Pflicht versteht, lebt gefährlich. Lesen Sie, welche Fehler Ihre Kunden vermeiden sollten und wie ein professionelles Konzept für die Datensicherung aussieht.
Die Datenrettung gehört glücklicherweise nicht zu den täglichen Aufgaben von Storage-Administratoren. Doch die Anforderungen an das tägliche Backup steigen. Wachsende Datenmengen müssen in immer kürzerer Zeit mit minimaler Beeinträchtigung der Produktivsysteme gesichert werden. Engmaschige Compliance-Anforderungen erschweren die Aufgabe zusätzlich.
Trotz dieser Herausforderungen wird die Datensicherung oft wie ein Stiefkind behandelt. Mit Backup und Recovery im Unternehmen ist es wie mit Versicherungen. Man muss sich darum kümmern, will aber nur wenig Zeit und Arbeit investieren. Tritt dann tatsächlich ein Schaden ein, wird schnell klar, dass sich ein wenig mehr konzeptionelle Energie bei Auswahl, Design und Implementierung durchaus gelohnt hätte. Denn Datensicherungsprojekte erfordern End-to-End-Konzepte, durchgängige, zentrale Monitoring-Ansätze und eine ganzheitliche Betrachtung der gesamten Unternehmensarchitektur.
Problem 1: Messaging und File-Services sichern
Das Thema Backup und Recovery wirft bei den Verantwortlichen in den Unternehmen viele Fragen auf. Zunächst sorgen sich IT-Verantwortliche natürlich um die Sicherheit ihrer Bestandsapplikationen wie Messaging und File-Services. Die rasanten Wachstumsraten dieser Anwendungen sprengen immer wieder die Kapazitätsgrenzen der Datensicherungsmedien und die definierten Laufzeiten für Sicherung und Restore.
Hohen Erklärungsbedarf gibt es derzeit bei der Sicherung von Daten aus neuen Applikationen wie Collaboration-Plattformen. In Sharepoint-Umgebungen können die Informationsmengen auf mehrere Terabyte anwachsen. Gleichzeitig stellen die Server-Farmen mit untereinander konsistent zu sichernden Einzelsystemen für Datensicherungsvorhaben komplexe Hürden dar. Weiter sind virtualisierte Infrastrukturen ein aktuelles Thema für Data-Protection-Experten.
Egal ob die Plattform VMware, Hyper-V oder anders heißt, die Frage lautet immer: Wie können Daten in virtualisierten Umgebungen effizient und Recovery-fähig gesichert werden? Ein wichtiges Thema ist die Konsistenz von Applikationen im virtuellen Umfeld. Hier gilt es, die vorhandenen Schnittstellen genau auf ihre Tauglichkeit für die Backup-Instanzen zu prüfen.
Vielfach sind bereits punktuelle Lösungen im Einsatz, die das Backup und die Rücksicherung von ein bis drei virtuellen Maschinen bewältigen. Wer plant, seine Infrastruktur mittelfristig in größerem Rahmen zu virtualisieren, sollte mit leistungsfähigen Enterprise-Backup-Tools operieren. Diese sollten Backup-Services automatisieren, Applikationen konsistent sichern und die Betriebsaufwände über eine einheitliche zentrale Administrationsschnittstelle im Rahmen halten.
Problem 2: Insellösungen funktionieren nur kurzfristig
Die Krux bei der Datensicherung ist die End-to-End-Betrachtung des Sicherungsprozesses: Die gesamte Wegstrecke der Daten von Quellapplikation und -system, über das LAN oder SAN bis hin zum Sicherungsmedium muss geplant werden. Organisatorisch führt der Sicherungsweg in den Unternehmen über Funktionsbereiche und Abteilungen hinweg.
Hier gilt es, an den Schnittstellen der Zuständigkeitsbereiche konzeptionelle Brüche zu vermeiden, damit die definierten Serviceziele für Backup und Recovery in jedem Fall erreicht werden. Fehlt diese ganzheitliche Betrachtung, besteht die Gefahr, dass jede Abteilung Insellösungen zum Schutz der eigenen Applikationen durchsetzt. Ein zentrales, konsistentes Berichtswesen und durchgängige Prozesse werden so unmöglich und sind mit deutlichem Mehraufwand verbunden.
Wie bei vielen anderen IT-Projekten ist die Kommunikationsleistung auch bei Datensicherungsvorhaben von zentraler Bedeutung. Es gilt unterschiedliche Anforderungen und Interessen unter einen effizienten Hut zu bringen. Hilfreich ist das Hinzuziehen des Auditors, der die Sicherung von Prozessen auf Compliance- oder Restore-Fähigkeit hin untersucht und gegebenenfalls veraltete Anforderungen aktualisiert.
Mitunter sollte sich der Projektleiter im Unternehmen nicht scheuen ein paar grundsätzliche Architekturfragen zu stellen: Ist das Ziel eine optimale Applikationsintegration innerhalb einer Insellösung, oder soll ein Betriebskonzept mit durchgängigen, zentralen Monitoring- und Reporting-Funktionen umgesetzt werden? Diese Zielsetzung bestimmt dann erst im zweiten Schritt, welche Technologien optimal sind. Unternehmen, die Daten aus komplexen, gewachsenen Applikations- und Infrastrukturlandschaften sichern wollen, sollten auf externe Beratung nicht verzichten, um Vorteile verschiedener Lösungen am Markt unabhängig bewerten zu lassen.
Problem 3: Das Backup-Medium Tape wird für tot erklärt
Zu den Best Practices eines Beratungs- oder Systemhauses gehört es, die Aussagen der Hersteller kritisch zu hinterfragen und sich vorrangig die individuelle Kundensituation anzusehen. Auch wenn es die Plattenhersteller gerne propagieren: Das Tape ist nicht tot! Als Ablagemedium in einer Backup-Strategie ist es wirtschaftlich sinnvoll und ermöglicht gegenüber der Plattensicherung eine komplementäre Risikostreuung.
Nur etwa ein Prozent der Kunden von Computacenter verzichtet derzeit völlig auf den Einsatz von Tapes. Pauschale Aussagen, dass Disks in jedem Fall schneller sind als Tapes, sind ebenfalls mit Vorsicht zu genießen. Wer regelmäßig umfangreiche Datenbanken sichern muss, ist mit Bändern oft schneller und wirtschaftlicher unterwegs.
Auf der anderen Seite gehören die Minidateien von File-Servern nicht direkt auf Tapes, da sie zu langsam angeliefert werden. So interessant die Datenreduktion von Backup-Daten durch Deduplizierung auch ist, für manche Sicherungsvarianten ergibt sie keinen Sinn. Nur bei ausreichend langen Aufbewahrungsfristen oder sehr redundanten Daten lohnt sich Deduplizierung. Ein Deduplizierungsansatz ist für die Datenbereiche eines Unternehmens einzeln zu bewerten. Die beste Lösung ist immer diejenige, die die Anforderung der jeweiligen Infrastruktur optimal erfüllt.
Problem 4: Überflüssige Technologien
Hersteller halten einen Blumenstrauß an Technologien bereit: Das Angebot reicht von der Deduplizierung über Continuous Data Protection (CDP), Snapshot-basierte Sicherungsverfahren und Medien wie Festplatten, Tape- oder Virtuelle Tape Libraries (VTL). Es ist aber zu erwarten, dass die Deduplizierung und seitens der Backupsoftware gesteuerte diskbasierte Sicherungen die VTLs über kurz oder lang verdrängen werden. Hochsensible Systeme fordern Online-Recovery, weniger kritische Daten können auch von Tapes mit längeren Antwortzeiten rückgesichert werden. Oft führen auch Betrachtungen der Verhältnismäßigkeit von Aufwand und Relevanz der Informationen zur passenden Backup-Technologie.
Die Datensicherungslösung wird bei mittleren bis großen Unternehmen immer eine Kombination aus Software wie Enterprise-Backup-Tools oder Einzelkomponenten mit Sicherungsgeräten wie Tape- oder virtuellen Tape-Libraries, Backup-to-Disk-Systemen oder Deduplizierungs-Appliances sein. In Summe gilt es zu klären, wo welche Funktionalität angesiedelt wird.
In der Praxis hat die Konsolidierung und zentrale Verwaltung mit einem Enterprise-Backup-Tool bewährt. Interesse bestand in den vergangenen Jahren vor allem an Snapshot-basierten Backups und der Flexibilität von VTLs. Kurz- bis mittelfristig werden Deduplizierungsfunktionen und das Steuern der Snapshots zunehmend in die Backup-Software integriert sein, sodass hierfür keine dedizierten Appliances mehr angeschafft werden müssen.
Problem 5: Backup erfordert intelligente Softwaresteuerung
Die funktionelle Bandbreite der Sicherungssoftware wird vielfältiger. Wurden früher lediglich Daten von A nach B transferiert, wird der Weg der Daten in das Backup zunehmend intelligent gesteuert, man spricht dabei von Orchestrierung. Das Datensicherungsprogramm versetzt die Applikation in einen konsistenten Zustand, initiiert einen Snapshot im Storage-System, sorgt für dessen Übertragung und kopiert ihn gleichzeitig an einen Ausfallstandort.
Dieser Prozess wird im Vorfeld definiert und ist damit auch problemlos zu überwachen. Im Sinne einer zunehmenden Automatisierung der Datensicherung empfiehlt sich ein zentraler Backup-Server, ein sogenannter Denker, der den gesamten Backup-Prozess nach vorgegebenen, wiederverwendbaren Regelsätzen steuert.
Fazit
Um die konzeptionelle Vorarbeit bei Backup- und Recovery-Projekten kommt angesichts des unkontrollierbaren Datenwachstums und komplexer, virtualisierter Umgebungen kein Unternehmen herum. Bei einer genauen Analyse der eigenen Infrastruktur fallen Fehler bei Betriebsabläufen, ungünstig definierte Anforderungen oder Backup-Systeme mit Archivfunktion auf.
Das bietet die Chance zur nachhaltigen Korrektur und eine effiziente Basis für eine Datenversicherung, die im Schadensfall auch hält, was sie verspricht: schnelle, gegebenenfalls deduplizierte Backups und eine zeitnahe Wiederherstellung mit integrierter Replizierung auf Disaster-Recovery-Standorte.
Die häufigsten Fehler beim Backup
Aus den häufigsten Fehlern, die bei Backup und Recovery-Projekten immer noch auftreten, lassen sich hilfreiche Strategien für die Zukunft ableiten.
-
Langzeitarchivierung auf Backup-Systemen
In der Praxis missbrauchen immer noch viele Unternehmen ihre Datensicherung als Archiv. In Stahlschränken stapeln sich unzureichend beschriftete Backup-Bänder. Hinzu kommt die Abhängigkeit von Soft- und Hardware: Eine fünf Jahre alte E-Mail in einer alten Exchange-Version von einem Backup-Band zurückzusichern, bedeutet einen unverhältnismäßigen Aufwand.
Es ist nötig, die Aufgabenstellung der Datensicherung unternehmensweit sauber zu definieren. Ein Backup soll einen Datenverlust im Schadensfall durch eine zeitnahe Wiederherstellung vermeiden. Alle Daten, die älter als sechs bis acht Wochen sind, sollten automatisch archiviert werden. Ein Archiv, das aufbewahrungspflichtige Informationen automatisch speichert und löscht, erfüllt Compliance-Anforderungen, sorgt für die Wiederauffindbarkeit von Dokumenten und arbeitet weitaus wirtschaftlicher als Backup-Lösungen.
-
Mangelnde Performance
Viele Datensicherungswillige richten das System-Design an den Anforderungen der User aus und rechnen die erforderliche Performance für Backup & Recovery nicht ein. Da kann es dann passieren, dass ein nagelneuer Server zwar die Anwender glücklich macht, aber die SLAs für den Restore schlicht nicht erfüllt. Daher gilt: Auch moderne Verfahren zur Datensicherung kosten Zeit und Systemleistung.
-
Unzureichend definierte Betriebsabläufe
Die Betriebsabläufe sind sauber zu definieren, damit das Monitoring Fehler auch rechtzeitig und angemessen melden kann. Welche Schritte zu einem Job gehören und ob er abgeschlossen ist, muss genau festgelegt sein.
-
Keine Maßnahmen gegen Missbrauch der Backup-Daten
Backup-Software kann quasi auf jedem beliebigen System innerhalb einer Organisation installiert werden. Ein Administrator mit krimineller Energie könnte sich jede Gehaltstabelle auf ein System zurück sichern, für das er Zugriffsrechte hat. Sicherheitsthemen wie Berechtigungs-Management und Verschlüsselung dürfen daher bei Backup- und Recovery-Projekten nicht vernachlässigt werden.
Den Beitrag haben Oliver Mangel, Practice Designer Restore & Recovery, Computacenter Deutschland und Norbert Steiner, Practice Designer Datensicherung & Archivierung, Computacenter Deutschland verfasst.