Virtualisierung, Cloud Computing und die Auflösung traditioneller Unternehmensstrukturen beeinflussen bestehende IT-Landschaften nachhaltig. Das bleibt nicht ohne Auswirkungen auf die Aufgaben von IT-Administratoren. Die anstehenden Veränderungen betreffen Server, Netzwerke und die gesamte Infrastruktur im Data Center gleichermaßen.
Beschaffung und Einkauf der Server
Für physische Server gibt es meist einen klar definierten Beschaffungsprozess: Die Hardware wird gekauft oder geleast. Werden Server virtualisiert, so entfällt der Beschaffungsvorgang. Dies gilt zumindest dann, wenn die bestehenden Rechner noch Reserven bieten. Diese freien Kapazitäten nutzen IT-Verantwortliche, um darauf die neuen virtuellen Server zu platzieren. An die Stelle der Beschaffung eines physischen Servers treten bei der Server-Virtualisierung neue Aufgaben und oftmals auch Herausforderungen: Gemeint ist damit vor allem die Analyse der geforderten und benötigten Leistung für den neuen virtuellen Server.
Der Einkauf der physischen Server wird in der Regel anhand der aktuellen Modellpalette des Herstellers vorgenommen. Dabei werden die Server oftmals überdimensioniert. Die Folge sind Server, die nur gering ausgelastet sind. Die steigende Zahl von Konsolidierungsprojekten mit Hilfe von Server-Virtualisierung ist auf eben diese Überdimensionierung der physischen Server zurückzuführen. Das Ziel der Server-Virtualisierung ist eine hohe Konsolidierungsrate - also viele Server auf einem Host. Beim Ermitteln der Lastprofile helfen Analysetools zur Kapazitätsplanung. Sie geben Aufschluss, welche Ressourcen die Server benötigen oder wo noch Kapazitäten frei sind. Die Ergebnisse der Analysen helfen bei der optimalen Konfiguration der virtuellen Server.
Einrichten des Servers
Die Aufgaben beim Setup eines physischen Servers umfassen die Einrichtung des Betriebssystems, der Service Packs, der Patches und ähnlicher Softwarebausteine. Die benötigten Softwaremodule werden entweder von einer CD/DVD, einem ISO-Image oder einem zentralen Image-Server bereitgestellt. Die Setups können manuell oder automatisiert erfolgen. Letzteres reduziert den Zeitaufwand für den Administrator. Beim Einsatz von virtuellen Servern ergaben sich neue Anforderungen. Zwar lassen sich auch virtuelle Server nach dem gleichen Verfahren einrichten, doch dabei verschenkt man einige Vorteile der Virtualisierung. Die Techniken der Server Virtualisierung sehen in der Regel Templates oder Image-Pools vor. Aus diesen werden dann die individuellen Server-Instanzen abgeleitet. Die bei physischen Servern oftmals verwendeten Server Deployment Tools mit ihren Skripten zur Automatisierung entfallen hingegen bei virtuellen Strukturen oder erhalten einen anderen Stellenwert. Bei der Migration eines bestehenden physischen Server in eine virtuelle Umgebung kommen darüber hinaus neue Werkzeuge zum Einsatz: die P2V-Tools. Diese vereinfachen den Transfer eines physischen Servers in eine virtuelle Umgebung. Für standardisierte System erfolgt dies vollautomatisch und ohne Zutun des Administrators.
Server-Monitoring und Optimierung
Mit der Betriebsphase beginnt auch das Überwachen der Server. Dazu bietet der Markt eine Vielzahl an Monitoring Tools (siehe auch: "Was Server-Management-Tools leisten"). Diese reichen vom einfachen Ping bis hin zu komplexen Überwachungs-Suiten für Geschäftprozesse. Monitoring-Tools arbeiten oftmals mit lokalen Agenten auf den zu überwachenden Servern. Alternativ ist mittels SNMP auch eine agentenlose Überwachung der Server möglich. Beim End-To-End-Monitoring erfolgt die Leistungsmessung aus der Sicht des Benutzers. Dazu sind aber komplexere Monitoring-Hilfen notwendig. All die Werkzeuge und Techniken zur Serverüberwachung lassen sich prinzipiell auch für virtuelle Systeme einsetzen. Dabei sollte man aber beachten, was man eigentlich misst. Die virtuellen Maschinen erhalten die CPU immer nur im Zeitscheibenverfahren anteilig zugewiesen. Die Auslastung und andere Messwerte eines virtuellen Servers sind also immer in Korrelation mit dem Host und anderen virtuellen Gästen zu sehen. Eine 1:1-Übertragung der Messewerte ist nur schwer machbar.
Laufzeitoptimierung der Server
Durch Laufzeitoptimierung wird der Durchsatz des Servers verbessert. Physische Server werden meist mit weniger als 15 Prozent der CPU-Last betrieben. Sie haben somit genügend Reserven für Lastspitzen. Andernfalls hätte das Thema der Virtualisierung in Zusammenhang mit Konsolidierungsprojekten kaum diese Bedeutung erreichen können. Bei der Virtualisierung werden gering ausgelastete Server zusammen auf einen Host gepackt. Dies sorgt für eine bessere Auslastung der Hardware des Hostsystems. Werden beispielsweise zehn physische Server, die jeweils eine Auslastung von 10 Prozent aufweisen, zusammen auf einen Host gebracht, so sorgt das für eine Konsolidierungsrate von 10:1. Doch der nun verbleibende Host mit den zehn virtuellen Gästen kann Lastspitzen nur bedingt abfedern. Der Aspekt der Laufzeitoptimierung war für physische Server aufgrund der geringen Auslastung oftmals kein Kriterium. Beim Einsatz von virtuellen Systemen wird die Laufzeitoptimierung zu einem zentralen Punkt der Virtualisierung. Mitunter hilft es, die virtuellen Maschinen so zu gruppieren, dass sie nie gleichzeitig ihre Lastspitzen haben.
Treten dennoch Engpässe bei physischen Servern auf, so helfen oftmals stärkere Hardwareressourcen. Mehr Speicher oder CPUs, eine bessere Netzwerkanbindung oder die Verteilung der Server-Last durch Clusterbildung sind ein paar dieser Möglichkeiten. Diese Techniken helfen prinzipiell auch bei virtuellen Systemen. Sie haben aber immer Auswirkungen auf die weiteren Gäste. Änderungen am Host erfordern darüber hinaus oftmals einen Reboot aller virtuellen Gäste und sind daher nur schwer durchführbar. Andererseits bieten virtuelle Systeme mit der Live Migration einer virtuellen Maschine gänzlich neue Möglichkeiten zur Lastverteilung.
Disaster Recovery
Um ein Disaster Recovery für einen physischen Server sicherzustellen, greifen viele Unternehmen auf ein Restore des Server-Images zurück. Dabei wird das komplette Softwaresystem des Servers sehr schnell von einem Sicherungsmedium auf einen funktionsfähigen Server gebracht. Das Dateisystem der virtuellen Server hingegen liegt meist ohnehin auf einem gemeinsamen Speicher. Dies ist zumindest dann notwendig, wenn die erweiterten Funktionen wie Live Migration benötigt werden. Diese Speichersysteme allerdings haben in der Regel flexiblere und schnellere Möglichkeiten zur Sicherung des gesamten Images der virtuellen Maschine. Ferner lassen sich virtuelle Server meist direkt aus einem zentralen Speicher booten. Hinzu kommt, dass der Ausfall einer virtuellen Maschine oftmals andere Ursachen haben wird als der eines physischen Rechners. Entweder fällt der Host aus oder aber das Softwaresystem in der virtuellen Maschine. Um einen Ausfall der Host-Server abzufedern werden diese geclustert. Dies macht die traditionellen Disaster Recovery-Funktionen überflüssig oder ändert sie gravierend.
Backup und Recovery
Physische Server mit direct attached Storage halten oftmals lokale Daten, die regelmäßig gesichert werden müssen. Dies passiert durch Backupagenten auf den Servern. Der Agent muss auf das zu sichernde System abgestimmt sein. Ferner muss er genügend Ressourcen erhalten, um die Sicherung auch in der vorgegebenen Zeit durchführen zu können. Um den Tagesbetrieb nicht zu sehr zu stören, erfolgt die Sicherung meistens nachts in speziell dafür reservierten Zeiträumen - dem Backupfenster. Zwar lassen sich prinzipiell auch virtuelle Systeme durch diese Verfahren sichern, doch das führt schnell zum Engpass. Wenn alle virtuellen Gäste gleichzeitig die Datensicherung durchführen, so wird oftmals der Host überlastet. Hier gilt es Rücksicht zu nehmen und das Backup zu verteilen. Alternativ bieten virtuelle Infrastrukturen auch eine Sicherung der virtuellen Maschinen durch den Host oder das Speichersystem. Beim Einsatz von virtuellen Systemen sind daher die Sicherungskonzepte zu überdenken und in der Regel auch anzupassen. Dies gilt auch für den Einsatz von Speichersubsystemen, denn sie beinhalten meist komfortablere Möglichkeiten der Datensicherung als die traditionellen Backup-Tools.
Energiemanagement
Ein gänzlich neuer Aspekt, mit dem sich Administratoren in Zukunft auseinander setzen müssen, besteht im Energiemanagement. Oftmals fällt dabei das Augenmerk allein auf die Energieeinsparung durch statische Techniken. Dies sind stromsparende Baugruppen und Rechner, aber auch die Ausrichtung des Rechenzentrums an den Aspekten einer effizienten Kühlung. Hinzu kommen dynamische Maßnahmen zur Energieeinsparung wie etwa die temporäre Anpassung der Rechenleistung an den aktuellen Bedarf. Das Spektrum reicht dabei von der Anpassung der CPU-Taktung bis zur Deaktivierung von CPU-Cores oder ganzer Server. Leistungsspitzen sollen ferner aus der Cloud bedient werden können. Viele dieser Techniken basieren auf der Lastverteilung durch Migrationen der virtuellen Server. All diese Maßnahmen bleiben nicht ohne Auswirkungen auf die Infrastruktur des Rechenzentrums wie auch der Kühlung. In Zukunft sind hier intelligentere Konzepte gefordert. Dies verlangt nach Hilfen zur dynamischen Ausrichtung des gesamten Rechenzentrums an den jeweils aktuellen Anforderungen.
Fazit
Die Verwaltung und Überwachung neuer Server-Strukturen hat mit dem traditionellen Server-Management, wie es IT-Administratoren jahrelang gewohnt waren, nur wenig gemein. Hergebrachte Arbeitsabläufe, Techniken und Werkzeuge werden sich ändern müssen. An die Stelle eines fest vorgegebenen Ablaufs von der Beschaffung über die Installation bis hin zum Betrieb der Geräte treten in Zukunft flexiblere Konzepte. Sie bringen die Data-Center-Ressourcen in Einklang mit der abgeforderten Last. Die Flexibilität der Virtualisierung und des Cloud Computing erfordert angepasste Verwaltungs-Tools und Prozesse. (wh)