Datenverlust oder ausgefallene Speichersysteme sind Gift für Unternehmen. Eine schnelle Wiederherstellung reduziert die entstehenden Kosten. Doch nicht nur das Backup sondern auch das Disaster Recovery muss reibungslos funktionieren. Wir zeigen, worauf es beim Zusammenspiel ankommt.
Datenverlust oder ausgefallene Speichersysteme sind Gift für Unternehmen. Eine schnelle Wiederherstellung reduziert die entstehenden Kosten. Doch nicht nur das Backup sondern auch das Disaster Recovery muss reibungslos funktionieren. Wir zeigen, worauf es beim Zusammenspiel ankommt. von Richard Zinner Der Verlust unternehmenskritischer Daten bedeutet für jedes Unternehmen und jede Organisation einen enormen Schaden. Der Imageschaden lässt sich eher schlecht bewerten. Schätzungen gehen aber davon aus, dass jede Minute Ausfallzeit wichtiger IT-Komponenten im Schnitt mehr als 100.000 Euro pro Stunde kostet.
Datenverlust hat dabei so verschiedene Ursachen, dass ein solches Ereignis nie ganz ausgeschlossen werden kann. Aber mit einem guten und konsequenten Backup-Management lassen sich die Downtime-Kosten enorm reduzieren. Aberdeen Research hat 2011 im Rahmen einer Studie ermittelt, dass in Unternehmen und Behörden mit unzureichenden Disaster-Recovery-Maßnahmen im Schnitt 3,5 Mal pro Jahr ein solches "Desaster" auftritt. Die Ausfallzeiten von IT-Systemen summieren sich im Schnitt auf 29,4 Stunden jährlich. Das entspricht einem finanziellen Schaden von mehr als 2,9 Millionen US-Dollar.
Im Vergleich dazu verzeichnen Anwender mit optimierten Vorsorgemaßnahmen weniger als einen Vorfall pro Jahr. Dieser führt zu Stillstandzeiten von 72 Minuten und einem Schaden von nur 72.000 US-Dollar. Neuere Studien aus dem Jahr 2012 belegen, dass der Stundensatz für Downtime-Kosten im Schnitt auf 138.000 Dollar gestiegen ist.
Die folgenden Grundregeln für eine Datensicherung mögen trivial erscheinen, aber überprüfen Sie doch mal Ihr Sicherungskonzept daraufhin ab, ob es diese einfachen Regeln wirklich und vollständig erfüllt:
Daten, die nicht (regelmäßig) gesichert werden, können Sie auch nicht wiederherstellen!
Backups, die nicht mindestens in einem Test erfolgreich wiederhergestellt wurden, verdienen den Namen „Backup“ nicht.
Backup-Lösungen und –Daten, für die niemand in der Firma direkt verantwortlich ist, sind definitiv schlechte bis unbrauchbare Sicherungen.
Sicherungen, die in Sie im gleichen Raum/Gebäude lagern, in dem sich auch Ihre restliche IT befindet, werden einen ernsten Zwischenfall wie Feuer, Überschwemmung und so weiter, sicher nicht überstehen.
Hardware für Backup und Disaster Recovery konfigurieren
Angesichts der Möglichkeiten, die ein gutes Backup und Disaster Recovery bietet, stellt sich die Frage, wie es in der Praxis effektiv für höchste Sicherheit sorgt. Schon eine richtige Konfiguration der Hardware kann hier helfen.
Welche Hardware in welcher Disaster-Recovery-Umgebung eingesetzt werden soll, hängt von der Größe des Unternehmens, der Zahl der Server und Clients sowie dem Umfang der Datenbestände ab, die gesichert werden müssen. Die Spannbreite ist enorm und reicht vom NAS-System bis zum kompletten Ausfallrechenzentrum. Wichtig ist aber vor allem, dass eine Backup- und Disaster-Recovery-Lösung möglichst viele Storage- und Archivierungstechniken unterstützt.
Schon bei der Wahl der Hardware können in Detailfragen die Weichen richtig gestellt werden. Wenn man SATA-Festplatten der Enterprise-Kategorie auswählt, gibt man im ersten Schritt zwar mehr Geld aus, investiert es aber in eine deutlich längere Lebenserwartung, seltenere Sektorenfehler und eine Optimierung für RAID-Controller.
Zentral ist auch Ordnung in der Datenlandschaft. Immer wieder wird der einfache Grundsatz unterschätzt, zwei separate Partitionen für Produktionsdaten und Anwendungsdaten einzurichten. Eine Vermengung erschwert die Umsetzung einer stringenten Backup- und Disaster-Recovery-Strategie. Die Partitionen für Daten werden am besten als RAID-10 konfiguriert.
Backup- und Disaster-Recovery-Software konfigurieren
Wer Datensicherheit und Performance des Unternehmensnetzes vereinbaren will, kann mit einer geschickten Konfiguration einer Disaster-Recovery-Software dazu beitragen. So sollten Datensicherungen nie zur vollen Stunde starten, sondern einige Minuten später. Das vermeidet zum Beispiel Konflikte mit etwa 25 aktiven Aufgaben, die beispielsweise in Windows Server 2008 R2 immer zu einer vollen Stunde starten.
Wichtig ist eine solche Planung, da ein professionelles Backup-Konzept möglichst kontinuierlich Daten sichern sollte. Ein Systemdatenträger sollte mindestens drei Mal pro Tag gesichert werden. Wenn das Laufwerk zudem ein Domänen-Controller ist und die SYSVOL- und NTDS-Verzeichnisse auf dem System-Datenträger lagern, ist eine fünfmalige Sicherung pro Tag angeraten. Die Sicherungsläufe für die Daten-Volumen sollten zeitversetzt erfolgen: Beispielsweise Partition 1 startet täglich im Stundenrhythmus um vielleicht 06:34 mit der inkrementellen Sicherung. Bei Partition 2 erfolgt das erste der stündlich durchgeführten Backups um 6:37 Uhr. Wer noch mehr Wert auf Datensicherheit legt, lässt automatisch im 15-Minuten-Takt Snapshots erstellen, so dass im schlimmsten Fall lediglich ein Verlust der Daten der letzten Viertelstunde eintreten kann.
Der Teufel steckt im Detail: Ein eigenes Windows-Dienstkonto nur für die Sicherung der Backups ist sinnvoll. Ebenso sollte an eine 256-Bit-Verschlüsselung der Backups gedacht werden. Außerdem ist auch eine intelligente Benennung der Backups kein reiner Ordnungswahn, sondern durchaus technisch geboten. Bei zu langen Datennamen ist Windows früher oder später nicht mehr in der Lage, die Backup-Kette zu mounten, weil der Pfad zu den Images zu lang ist.
Das Repository richtig dimensionieren
Backup-Images sollten möglichst kompakt gehalten werden, damit der Bedarf an Speicherplatz nicht explodiert. Selbst in kleineren und mittelständischen Unternehmen bewegen sich die Datenvolumina, die von Servern bereitgestellt werden, mittlerweile im zweistelligen Terabyte-Bereich. Die Menge der zu sichernden Daten steigt in zunehmend heterogenen IT-Landschaften.
Solche IT-Flickenteppiche erschweren die Entscheidung, welche Daten zu sichern sind. Sie machen eine regelmäßige Inventur der Daten und eine Homogenisierung der Serverlandschaften notwendig. Auf der anderen Seite empfiehlt es sich aber auch immer mehr, nicht nur Daten, sondern gleich die ganze Software und individuelle Konfigurationen - sprich ganze IT-Infrastrukturen - zu sichern.
In allen Fällen ist nur eine inkrementelle oder eine differentielle Sicherung den Anforderungen angemessen: Alle sektorbasierten Änderungen im Vergleich zur Vorabsicherung werden erfasst und in einem inkrementellen Image gesichert. Außerdem ist es ratsam, Server nicht für das Speichern großer temporärer Dateien wie ISO-Files oder nicht komprimierbare Daten heranzuziehen. Werden diese Vorgaben berücksichtigt, lässt sich die Größe eines Image Repository mithilfe dieser Formel errechnen:
Größe der Rohdaten * 60 % * 6 = Speicherplatz für Images, der ein Jahr ausreicht
Diese Formel berücksichtigt bereits eine Sicherheitsreserve von 15 Prozent.
Vom Backup-Image zum funktionsfähigen System
Der wahre Wert eines Backups zeigt sich erst im Ernstfall, wenn die Datensicherung zur möglichst schnellen Wiederherstellung eines Servers herangezogen wird. Die Wiedereinspielung der Daten beziehungsweise die Neuaufsetzung der betroffenen Systeme kann auf drei Arten erfolgen:
als ein Hardware-unabhängiges Restore
durch den Einsatz eines Standby-Servers
durch Booten von Systemen direkt vom Backup-Image in einer virtualisierten Umgebung.
Die Hardware-unabhängige Wiederherstellung von Daten zeichnet sich durch ein Maximum an Flexibilität aus. Sie ermöglicht es, ein System auf einer anderen Hardware-Plattform als der ursprünglich verwendeten wiederherzustellen. Chipsatz, Hardware-RAID oder eine andere Hypervisor-Struktur spielen keine Rolle. Dadurch eignet sich diese Technologie auch für die Migration von einer Systemplattform zu einer anderen. Außerdem können vorhandene Images auf virtualisierten Systemen wiederhergestellt werden.
Insgesamt sind folgende Kombinationen denkbar:
physikalisch zu physikalisch (P2P)
physikalisch zu virtuell (P2V)
virtuell zu virtuell (V2V)
virtuell zu physikalisch (V2P)
Wichtig ist bei einer solchen Hardware-unabhängigen Wiederherstellung die Verfügbarkeit der richtigen Treiber. Recovery-DVDs von guten Backup- und Disaster-Recovery-Lösungen bieten daher eine Wiederherstellungsumgebung (Pre-Execution Environment) mit den Treibern gängiger Hardware-Komponenten wie Chipsatz, RAID-Controller, USB 3.0-Geräten und Netzwerkadaptern. Außerdem unterstützen diese Wiederherstellungsumgebungen auch ältere Hardware für Windows Server 2012, 2008 R2 oder gar Windows Server 2003, falls ein Restore auf ein älteres System nötig wird.
Szenario 2: Virtualisierte Standby-Server
Um die Ausfallzeiten möglichst kurz zu halten, ist es insbesondere bei Servern mit mehreren Terabyte an Daten ratsam, einen Standby-Server zu konfigurieren. Solche Standby-Server sind wesentlich günstiger als Server-Clustering-Lösungen, die zudem auf spezieller Hard- und Software aufbauen.
Ein virtualisierter Standby-Server - was beispielsweise die Headstart-Restore-Technologie realisiert - konfiguriert den Produktionsserver so, dass er in regelmäßigen Abständen inkrementelle Backups erstellt. Diese Images lassen sich dann in Virtual Machines mit den gängigen Formaten VMDK (Virtual Machine Disk) oder VHD (Virtual Hard Disk) überspielen. Fällt der Produktionsserver aus, lassen sich diese Images innerhalb weniger Minuten wiederherstellen.
Mithilfe solcher "virtuellen" Standby-Server können die Risiken durch Hardware-Ausfälle auf ein Minimum reduziert werden. Das gilt sowohl für Fehlfunktionen von Server-Systemen als auch der daran angeschlossenen Disk-Arrays.
Szenario 3: Virtualisierung
Eine besonders schnelle Wiederherstellung einer Systemumgebung direkt und ohne zeitaufwändige Umwege ist eine Hardware-unabhängige Realisierung einer Wiederherstellung direkt in einer virtualisierten Umgebung. Mit einem solchen VirtualBoot ist es möglich, vorhandene Backup-Dateien temporär in einem virtualisierten Zustand wiederherzustellen. Dabei wird das einfach zu konfigurierende und kostenfreie Oracle VM VirtualBox als Virtualisierungsplattform genutzt.
Der ausgefallene Server lässt sich dann innerhalb von wenigen Minuten als virtuelle Maschine starten und kann seine Arbeit wieder aufnehmen. In der Zwischenzeit lässt sich der physische Server neu einrichten. Physische Standby-Server müssen nun nicht mehr vorgehalten werden. Während der virtualisierte Ersatz-Server in Aktion ist, werden von den entsprechenden Daten weiterhin inkrementelle Sicherungen hergestellt. So lässt sich die komplette Backup-Kette zu einem beliebigen Zeitpunkt auf das neue oder reparierte System über den klassischen Bare-Metal-Restore zurückspielen, selbst während auf dem VirtualBoot-Ersatzsystem gearbeitet wird. In der Praxis bedeutet dies eine minimale Downtime, selbst bei größeren Migrations- oder Wiederherstellungsvorgängen von großen Datenmengen.
Die Technik kann auch dazu verwendet werden, um Desktop-Rechner oder die entsprechende Systemumgebung in Form einer Virtual Machine auf einer anderen Hardware bereitzustellen. Mitarbeiter, deren Client-System nicht mehr funktioniert, haben somit nach kurzer Zeit Zugriff auf ihre gewohnte Systemumgebung und die entsprechenden Daten.
Backup, Restore, Daten-Synchronisierung, Datensicherheit Storage-Tools sind unentbehrliche Helfer für die Festplatten- und Datenverwaltung. Sie übernehmen lästige Standardaufgaben und ergänzen die Bordmittel des Betriebssystems. Wir haben die zehn beliebtesten Storage-Tools für Sie zusammengestellt.
Platz 10: Areca Backup Die Open-Source-Lösung Areca Backup bringt alle wichtigen Funktionen für die Datensicherung mit. Das Ganze ist in einer übersichtlichen und logisch strukturierten Oberfläche verpackt. Dennoch bietet Areca Backup vielfältige Konfigurationsmöglichkeiten. Die Sicherungen lassen sich beispielsweise im Netzwerk, auf lokalen Laufwerken, auf externen Speichermedien oder einem ftp-Server ablegen. Um Platz zu sparen, können die archivierten Daten auch mit Zip oder Zip64 komprimiert werden. Auch die Möglichkeit zur Verschlüsselung der übertragenen Daten bringt das auf QT basierende Tool mit, wenn es entsprechend konfiguriert wird. Die SSL-Integration sichert auch die Vertraulickeit der Verbindung zum Speichermedium ab, wenn auf dieses über das Netzwerk zugegriffen wird. Areca Backup unterstützt sowohl inkrementelles als auch differentielles Backup. Letzteres sichert alle Änderungen, die seit dem letzten Vollbackup erfolgt sind. Per Delta wird sogar erkannt, wenn nur Anteile von Dateien verändert wurden und speicherbedürftig sind. Häufen sich zu viele Daten an, so verschmilzt das Programm auch die Archive aller Backups zwischen zwei bestimmten Daten zu einem gemeinsamen Speicherpunkt. Areca Backup kann die Sicherung simulieren, so kann man erkennen, ob ein weiteres Backup aktuell wirklich notwendig ist. Das kostenlose Backup-Programm steht sowohl für Windows- als auch für Linux-Plattformen zur Verfügung. Wie bei Open Source üblich, ist das Programm kostenlos auf Sourceforge zu finden.
Platz 09: PureSync PurSync ist ein hilfreiches Storage-Tool, um Dateien an zwei verschiedenen Orten bequem und sicher zu verwalten. Es vereinfacht die regelmäßige Sicherung von wichtigen Dateien und Ordnern deutlich. Zusätzlich vergleicht PureSync komfortabel Dateien, um zu verhindern, dass sich überflüssige Doppelungen von Dateien in einem Verzeichnis finden. Auch das Sichern der kritischen Dateien auf einem FTP-Server ist mit dem Tool möglich. Für besonders wichtige Anwendungen sind auch verteilte Backups aktivierbar, denn PureSync erlaubt die Sicherung auf bis zu drei entfernte Ziele. Eventuell nötige Änderungen am Verzeichnisnamen werden beim Sicherungsvorgang automatisch angepasst. Zudem gibt es eine spezielle Foto-Synchronisierung. Diese gleicht nur die Bilder seit der letzten Änderung ab, so werden unnötige Kopiervorgänge vermieden. Die Benutzeroberfläche ist recht übersichtlich gestaltet und überfordert auch Einsteiger nicht. Gleichzeitig haben erfahrene Anwender ausreichend Regler, um die Backups explizit an die eigenen Bedürfnisse anzupassen. PureSync bietet beispielsweise umfangreiche Optionen zur Zeitplanung bei der Datensicherung. Das Zweispaltenlayout erleichtert die Orientierung deutlich. Das Tool ist für den privaten, nicht-kommerziellen Gebrauch kostenfrei. Für den Einsatz im Unternehmen können Sie auch eine PureSync Professional Lizenz erwerben.
Platz 8: CCleaner Es gibt mehrere Gründe auf dem eigenen PC ein Aufräum-Tool zu verwenden, aber die beiden gewichtigsten sind Performance und Privatsphäre. Der kostenlos angebotene CCleaner verspricht, genau diese beiden Paradigmen umzusetzen. Das Tool beseitigt auf einen Schlag eine Vielzahl temporärer Dateien und löscht tote Einträge aus der Windows Registry. So macht es die gefürchteten Spuren längst deinstallierter Programme unschädlich und verschlankt die Datenbank. Bei der Spurenbeseitigung konzentriert sich der CCleaner auf die Daten aller großen Browser. Verläufe, Cookies, Download-Historien und der Browser-Cache werden zuverlässig entfernt. Sollen größere Geschütze verwendet werden, implementiert das Tool verschiedene sichere Löschverfahren. So entfernt CCleaner sowohl einzelner Dateien als auch die Inhalte kompletter Datenträger auf eine Weise, die eine wiederherstellung unmöglich macht. Da der CCleaner jedoch eigene Regeln für die zu verwaltenden Programme braucht, um optimal zu arbeiten, ist er in seiner Funktion schnell eingeschänkt, wenn weniger bekannte Tools verwendet werden. Für diesen Fall hat die Community den CCenhancer entwickelt, mit dem der programminternen Datenbank rund 500 neue Tools hinzugefügt werden. So erweitert sich das Einsatzspektrum des Programms beträchtlich. CCleaner ist kostenlos und für Microsoft-OSs ab Windows 2000 erhältlich. 64-Bit-Systeme bereiten ihm keine Probleme. Für Geschäftskunden und anspruchsvolle Privatnutzer existiert auch eine Premium-Version, die insbesondere einen bevorzugten Support beinhaltet.
Platz 7: HD Tune Pro HD Tune ist ein praktisches Tool, mit dem der Anwender den Zustand seiner Festplatte überwachen sowie deren Leistung optimieren kann. Im ersteren Funktionsbereich stellt die grundlegenden Daten ein Monitor für die Ausgaben von S.M.A.R.T. zur Verfügung. Traut man diesen nicht, so durchsucht HD Tune die Festplatte auch vollständig nach Sektorfehlern. Abgesehen vom reinen Funktionstest der Hardware überwacht HD Tune auch die Performance der Festplatten. Hierfür stehen diverse Benchmarks zur Verfügung. Im wichtigsten dieser Werkzeuge sammelt das Programm die Daten zur Lese- und Schreibgeschwindigkeit, die grafisch über die Festplattenkapazität hinweg aufgetragen werden. Auch die Zugriffszeit sowie die Leistung bei Burst-Zugriffen werden hier ermittelt. Ein spezielles Benchmark für das sequentielle Schreiben ermittelt hingegen den zeitlichen Verlauf der Datenzugriffsraten. So kann die Übertragung von beliebig großen Dateien auf Probleme hin untersucht werden. Eine Reihe weiterer Tests stehen zur Verfügung, um beispielsweise Zufallszugriffe zu simulieren. Für die Überwachung des laufenden Betriebs eignet sich der Disk Monitor, der Eckdaten wie Schreib- und Lesezugriffe und ähnliche Daten mit protokolliert. Weitere Tools erweitern die Funktionen des Programms über das reine Benchmarking hinaus, und erlauben zum Beispiel das vollständige Löschen der Platte. HD Tune Pro ist hauptsächlich als kostenpflichtige Software mit einem Testzeitraum von 15 Tagen konzipiert. Es existiert jedoch auch eine für den privaten Gebrauch kostenlose Version, die aber massiv in ihren Funktionen beschnitten wurde und im Wesentlichen nur ein Lesebenchmark, den S.M.A.R.T.-Monitor sowie die Fehlersuche beinhaltet. HD Tune Pro läuft auf allen Windows-Systemen ab 2000.
Platz 6: WinMerge Das praktische Tool WinMerge hilft dabei, Änderungen an Dateien und Ordnern nachzuvollziehen. Beim Dateivergleich können beispielsweise Textdateien parallel angezeigt werden, wobei Unterschiede farblich hervorgehoben werden. Bei längeren Dateien ist die Positionslleiste praktisch, die eine auf einzelne Pixel statt zeilen reduzierte "Karte" der Datenunterschiede anzeigt. Außerdem ist man dank Tab-Interface nicht auf zwei Dateien beschränkt. WinMerge unterstützt bei Texten sowohl Windows-, Linux- wie auch Mac-Textdateiformate, auch eine Unterstützung für Unicode ist inbegriffen. Nach dem reinen Abgleich der Dateien können diese auch zusammengeführt werden. Auch auf höherer Ebene arbeitet das Tool, indem es Ordnerelemente abgleicht und gegebenenfalls synchronisiert. Mit dieser Funktion lassen sich auch gleich ganze Verzeichnisbäume verwalten. Dank diverser Filter vierliert man dabei auch in komplexen Strukturen nicht den Überbick. Bei der Versionskontrolle unterstützt WinMerge die Systeme Visual SourceSafe und Rational ClearCase. Für das Tool sind zahlreiche Plug-ins verfügbar. Diese erweitern die Kompatibilität etwa auf Office-Dokumente oder Archive. Die Oberfläche ist recht aufgeräumt und leicht zu verstehen. Noch schneller navigieren Sie jedoch mit den diversen Tastaturkürzeln. Wer das Programm in Skripten verwenden will, den sollte die Shell-Unterstützung zugute kommen. Der Download von WinMerge ist schmal und steht als Installer oder als Zip-Archiv zur Verfügung. Das Programm ist Open Source, kann also kostenlos heruntergeladen werden.
Platz 5: FreeFileSync Mit dem Tool FreeFileSync kann der Anwender sehr einfach und komfortabel Dateien auf unterschiedlichen Datenträgern wie externe Festplatte, USB-Stick oder interne HDD synchronisieren beziehungsweise vergleichen. Verschiedne Optionen und Filterfunktionen unterstützen den Anwender bei dieser Aufgabe. Das Programm ist intuitiv bedienbar und grafisch ansprechend aufbereitet. Für den mobilen Anwender gibt es das kostenlose Tool auch als portable Version für den USB-Stick.
Platz 4: AllDup Das kostenlose Windows-Tool AllDup hilft bei der Suche nach Duplikaten auf verschiedenen Datenträgern. Über umfangreiche Filteroptionen stellt man ein, nach welchen Dateitypen gesucht werden soll. Texte, Grafiken und diverse andere Mediendaten kann das Tool zur Versionsüberprüfung darstellen. Eventuell vorhandene Metadaten können auch direkt während des Suchvorgangs zum Abgleich einbezogen werden. So werden beispielsweise ID3 für MP3 oder Exif für JPEG unterstützt. AllDup ist nicht nur in der Lage, einzelne Verzeichnisse zu scannen, sondern analysiert auch gesamte Festplatten oder gar Netzlaufwerke.
Platz 2: UNetbootin Mit UNetbootin lassen sich aus ISO-Dateien bootbare USB-Laufwerke erstellen, die sich etwa zum Ausprobieren von Linux Live-Distributionen anbieten. Hierfür ist in das Programm ein komfortabler Download-Manager integriert. Dieser lädt die notwendigen Betriebssystemdateien herunter und entpackt sie auf den Datenträger. Aber auch beliebige andere ISO-Images lassen sich auf USB-Sticks bannen - praktisch etwa zur Installation von Windows auf ein Netbook ohne optisches Laufwerk.
Platz 1: CrystalDiskInfo Meist kommen Tools wie CrystalDiskInfo erst zum Einsatz, nachdem man bereits einmal einen Festplattenverlust erlitten hat. Mit diesem nützlichen Helferlein können Grenzwerte für die S.M.A.R.T.-Parameter der verbauten Festplatte gesetzt werden, um das Programm dann bei Überschreitungen Alarm schlagen zu lassen. Natürlich bewahrt einen das Tool davor nicht, bietet aber eine Art Frühwarnsystem. Denn die verfügbaren Werte beschränken sich nicht auf obskure Parameter wie die Spin Up Time oder den Rallocated Sector Count, sondern bezieht auch ganz real erfühlbare Daten wie die Temperatur mit ein. Auch heute noch können in ganz normalen Desktop-PCs Festplatten kritische Temperaturen erreichen, mit entsprechenden Folgen. Doch auch die genannten und im Übrigen ausfallrelevanten Felder können mit eine Alarmfunktion versehen werden. CrystalDiskInfo erlaubt es auch, die überwachten Werte der Festplatte dauerhaft in der Systemleiste anzuzeigen. Das Tool kommt nicht nur mit internen Festplatten sondern auch mit SSDs und USB-Festplatten zurecht. Das Programm ist kostenlos und in diversen Sprachvarianten erhältlich. Es ist unter der Modified BSD License veröffentlicht und damit Open Source. Will man den Autor unterstützen, so bietet er aber auch eine Version mit OpenCandy an, einem freien Werbesystem ohne Benutzerüberwachung. Anime-Fans dürften sich über die Shizuku Edition freuen, in der die Programminhalte von einer Comicfigur begleitet werden. CrystalDiskInfo läuft auf Microsoft-Betriebssystemen ab 2000.
Backup-Images replizieren und optimieren
Ein wichtiger Baustein eines umfassenden Disaster Recovery und Business Continuity Sicherheitsplans ist eine Software-Komponente, mit der sich Backup-Images verwalten und replizieren lassen. Ein "Image Manager" sollte die Speicherung von Images auf lokalen Speichermedien oder Storage-Ressourcen in einem LAN, an entfernten Standorten oder in einer Cloud-Umgebung unterstützen. Dies kann eine Private Cloud im Unternehmensnetz sein, oder auch eine Cloud-Umgebung, die ein Service Provider bereitstellt.
Hilfreich ist eine Funktion, mit der sich festlegen lässt, welche Daten vor Ort und welche an einem anderen Standort abgelegt werden. Zudem sollte die Software die Option bieten, Backup-Dateien auf ihre Integrität zu überprüfen und diese zu konsolidieren. Wünschenswert sind auch Funktionen, mit denen sich der Bandbreitenbedarf beim Sichern über Weitverkehrsverbindungen steuern lässt und die den Speicherbedarf reduzieren, etwa indem ungenutzter Platz in Backup-Dateien eliminiert wird.
Fazit
Backup und Disaster Recovery sind kein Hexenwerk. Mit einer effektiven Lösung lassen sich optimale Datensicherheit einerseits und Performance des Netzwerks andererseits durchaus vereinbaren. Zudem realisieren entsprechende Technologien Wiederherstellungszeiten von wenigen Minuten.
Auch Cloud-Lösungen bieten eine sinnvolle Alternative und garantieren ein hohes Maß an Sicherheit, wenn eine Offsite-Speicherung ein lokales Backup zusätzlich sichert. Wichtig ist aber immer auch die kontinuierliche Überprüfung der Sicherungen. Denn nur konsistente und auslesbare Backups sind im Ernstfall eine Hilfe.