Die Virtualisierung von Server und Storage wird gerne als universelles Heilmittel angepriesen. Doch schnell entwickelt sich die Umstellung zum technischen und finanziellen GAU. Unsere Tipps zur Virtualisierung sollen Ihnen als Reseller helfen, die klassischen Fehler zu vermeiden.
Virtualisierung wird 2012 einer der wichtigsten Trends im Server-Markt sein. Davon geht jedenfalls der Marktforscher Gartner aus. Unternehmen sollten sich aber nicht blindlings darauf stürzen, ihre Server-Farmen zu virtualisieren. Denn einige Fehler bei der Virtualisierung haben sich inzwischen zum Klassiker entwickelt – und werden dennoch immer wieder gemacht. Deshalb nachstehend die wichtigsten Tipps zur Planung und zum Betrieb virtueller Umgebungen.
Generelle Tipps zur Virtualisierung
Lieber klein anfangen
Hersteller und Consultants empfehlen die Server-Virtualisierung im großen Maßstab. Besser ist es indes, aus Kosten-, Management- und kultureller Sicht erst einmal klein anzufangen. Zunächst sollte man sich laut Gartner auf Server-Konsolidierung, Kostensenkung und bessere Hardwareausnutzung konzentrieren. Erst dann kann man die nächste Phase angehen und neue Services bereitstellen oder die Qualität und Geschwindigkeit von Services verbessern.
Virtualisierung ganzheitlich angehen
Unternehmen, die sich einen Fahrplan für die Virtualisierung von x86-Servern zurechtlegen, müssen darauf achten, dass künftig auch Desktop-, Applikations-, Speicher- und Netzwerkvirtualisierung in dieses Konzept passen. Die verschiedenen Zuständigkeiten für Server, Netzwerk, Speicher, Sicherheit und Anwendungen sowie der daraus resultierende Mangel an Kommunikation können die Umstellung deutlich erschweren.
Die richtigen Anwendungen virtualisieren
Nicht jede Applikation eignet sich gleich gut für die Virtualisierung. Speziell Anwendungen mit hohen Input/Output-Anforderungen arbeiten auf virtuellen Maschinen zuweilen ineffizient; Applikationen, die vorhandene Hardware effektiv auslasten, bringen wiederum virtualisiert keine Kostenersparnis. Am besten fokussiert man sich zunächst auf ältere und kleinere Packaged Applications.
Richtig Gruppieren
Oft werden bei Virtualisierungsprojekten allein technische Aspekte berücksichtigt. Es wird analysiert, welche Ressourcen die zu virtualisierenden Systeme im Schwerpunkt benötigen: Manche erfordern einen großen Arbeitsspeicher, andere benötigen eher leistungsfähige Prozessoren. Verschiedene Klassen von Applikationen werden dann zusammen auf einem Server konsolidiert, damit die verfügbaren Ressourcen gleichmäßig ausgelastet sind. Wichtig ist es hier aber auch, betriebswirtschaftliche Zusammenhänge zu kennen und zu berücksichtigen. Kommunizieren etwa zwei virtuelle Maschinen (VMs) in hohem Maße miteinander, ist es sinnvoll, beide Systeme auf einem physikalischen Server laufen zu lassen.
Weitere generelle Tipps zur Virtualisierung
Umfassende Workload-Analyse
Oft wird die Ist-Situation nicht präzise analysiert. Wichtig ist es, im Vorfeld von Virtualisierungsprojekten herauszufinden, welche realen Systeme sich überhaupt virtualisieren lassen und welche Betriebsmittel sie in der realen Welt benötigen. In einem zweiten Schritt wird dann ermittelt, welche Ressourcen diese Systeme in einer virtualisierten Umgebung erfordern. In dieser Phase ist äußerste Sorgfalt der Schlüssel zu einem erfolgreichen Virtualisierungsprojekt.
Wahl der passenden Virtualisierungstechnologie
Auf dem Virtualisierungsmarkt haben sich zwei große Technologien etabliert: die Hypervisor-Technologie (VMware, Parallels, Citrix/Xen) und die Container-Technologie (auch OS-Virtualisierung, SWsoft, Sun). Je nach Einsatzszenario sollte man beide Alternativen prüfen. Die Hypervisor-Virtualisierung zeichnet sich durch ihr breites Spektrum an unterstützten OS aus und sollte am besten verwendet werden, wenn auf einem Server unterschiedliche Betriebssysteme laufen sollen. Die Container-Technologie wiederum erlaubt eine höhere Auslastung und Performance des physischen Servers und beschränkt sich dabei bewusst auf ein Betriebssystem pro physischem Server (beispielsweise nur Linux).
Wahl der richtigen Hardware
Bei der Hardwarewahl kann es wichtige Restriktionen geben. Mancher Hypervisor unterstützt nicht jede Hardware. Die Container-Virtualisierung ist weniger streng, man kann sie auf fast jeder Standardhardware verwenden. Sorgfalt ist auch bei der Wahl des Datenspeichers angesagt. Server-Virtualisierung ohne Storage-Virtualisierung ist nur der halbe Weg.
Virtuelle Maschinen effektiv kombinieren
Viel wichtiger als ein einmal perfektioniertes statisches Konsolisierungs-Mapping ist die Entwicklung eines flexiblen Prozesses für die dynamische Relokation von Server-Kapazität. Workloads verändern sich ständig. Darauf schnell und dynamisch reagieren zu können ist ein Kernziel, insbesondere in frühen Stadien der Virtualisierung.
Betriebswirtschaftliche Tipps zur Virtualisierung
Raschen RoI fordern
Weil sich der Markt und damit die Preise schnell entwickeln, sollten Anwender Virtualisierungsprojekte mit raschem Return on Investment aufsetzen. Die Experten von Gartner etwa empfehlen, dass ein Projekt zur Server-Virtualisierung einen vollen Return on Investment in sechs Monaten oder weniger zeigt.
Kostenschub durch Managementaufwand einplanen
Die Verwaltungskosten für das Server-Management fallen finanziell stark ins Gewicht. Einige Lösungen stellen nur sehr wenige Tools zur Verfügung, andere wiederum liefern bereits hervorragende Managementwerkzeuge mit. Um einen unerwarteten Kostenschub zu vermeiden, sollten die Kosten für diese Tools in die Planung miteinbezogen werden.
Lizenzbedingungen beachten
Virtualisierung als Markttrend ist so schnell aufgekommen, dass sich manche Softwarehersteller hinsichtlich ihrer Preise, Lizenzen und Support-Bedingungen für virtualisierte Umgebungen noch im reinen Reaktions-Modus befinden. Nutzer die Konditionen der ISVs (Independent Software Vendors) so detailliert wie möglich analysieren. Durch die Preispolitik der ISVs könnten kleinere physische Server für einzelne Anwendungen noch länger die Norm bleiben.
Lizenzfragen
Eng mit dem Punkt "virtueller Wildwuchs" ist auch die Frage nach der Lizenz der virtuellen Systeme und der Applikationen verbunden. Benötigt jede VM eine eigene Lizenz, so steigen die Kosten mit der Zahl der virtuellen Maschinen. Die OS-Lizenzmodelle genau zu betrachten ist hier oberstes Gebot. So kann zum Beispiel ein Einsatz der Windows 2003 Datacenter Edition interessant sein, weil beliebig viele virtuelle OS-Instanzen auf einem Server erlaubt sind.
Fachabteilungen sollen von Einsparungen profitieren
Für IT-Abteilungen ist die Konsolidierung von Servern naheliegend, weil sie damit Kosten sparen können. Fachabteilungen hingegen befürchten häufig, dass der Umzug ihrer Anwendungen von einem physikalischen auf einen virtuellen Server negative Auswirkungen auf die Performance haben könnte. Wenn sie hingegen an den wirtschaftlichen Vorteilen der Virtualisierung über eine Rückvergütung beteiligt werden, dann könnten sie derartigen Veränderungen leichter zustimmen.
Weitere betriebswirtschaftliche Tipps zur Virtualisierung
IT-Abteilung weiterbilden
Verantwortliche entdecken möglicherweise erst dann einen Mangel an Know-how, wenn komplexe virtuelle System bereits in Produktion gegangen sind. Das Anwerben von Mitarbeitern mit Virtualisierungsexpertise fällt jedoch schwer, weil ein Mangel an qualifiziertem Personal herrscht. Daher sind Schulung und Inhouse-Know-how ein Muss.
Nutzen Sie internes Know-how
IT-Abteilungen müssen ihre Mitarbeiter für die Virtualisierung weiterbilden, etwa durch Zertifizierungsprogramme wie "VMware Certified Professional" (VCP) und Microsofts "Windows Server Virtualization". Aufgrund der hohen Kosten für diese Ausbildungen empfiehlt Gartner, nur ausgewählte Mitarbeiter zu den Schulungen zu schicken. Diese sollen dann ihr Wissen in Arbeitsgruppen an ihre Kollegen weitergeben.
Prozesse anpassen
Tools und Abläufe aus der physikalischen Welt lassen sich nicht direkt in virtuelle Umgebungen übertragen. IT-Abteilungen müssen daher bestehende Prozesse und Tools anpassen. Solche Tendenzen konterkarieren das Bestreben nach Server-Konsolidierung. Daher ist, so Gartner, ein Life-Cycle-Management für VMs nötig, um die Kontrolle zu behalten.
Serviceleistung passend einkaufen
Viele Unternehmen implementieren zwar eine hochverfügbare virtuelle Server-Umgebung. Sie vergessen aber, die dazugehörigen Services mit einzukaufen, die die Verfügbarkeit geschäftskritischer Anwendungen mit der erforderlichen geringen Reaktionszeit garantieren.
Support für virtuelle Applikationen.
Unternehmen sollten genau prüfen, ob für ihre Anwendungen auch ein Support für den Betrieb in virtuellen Umgebungen besteht. Es sollte klar definiert sein, wer Ansprechpartner in Support-Fällen ist: der Hersteller der Software oder der Virtualisierungspartner. Glücklicherweise gibt es einen klaren Trend dahin, dass die Softwarehersteller ihren Service auch für Produkte in virtuellen Umgebungen leisten. Inzwischen gibt es auch etliche Zertifizierungen wie etwa das VMware-ready-Programm, das einen stabilen Produktionseinsatz einer Software in virtuellen Umgebungen garantiert.
Tipps zum Betrieb virtueller Server
Virtuellen Traffic messen
Zwar wird der Verkehr in physikalischen Netzwerken meist überwachen. Für virtuellen Traffic ist das aber nicht selbstverständlich, obwohl diese Daten für die Analyse von Performance-Problemen wichtig sind. Besonders wenn die Zahl der VMs jene der physikalischen Server um ein Vielfaches übersteigen kann, gewinnt die Kommunikation zwischen virtuellen Maschinen an Bedeutung. Tools wie Altor's Virtual Network Security Analyzer (VNSA) berücksichtigen auch die Inter-VM-Kommunikation oder den Traffic zwischen virtuellen Desktops. Dabei lassen sich die Anwendungen ermitteln, die für die größte Netzlast verantwortlich sind.
Laufzeit begrenzen
Virtuelle Maschinen lassen sich schneller und leichter in Betrieb nehmen als physikalische. Das kann in einer unkontrollierten Vermehrung von virtuellen Servern enden. Tools wie VKernel Capacity Analyzer machen auf alle VMs in einer bestimmten Umgebung aufmerksam. Damit lassen sich Zombie-VMs entdecken, die vermeintlich gelöscht wurden und dennoch munter weiterlaufen. Als gute Praxis hat sich erwiesen, dass eine neue VMs beispielsweise für Testzwecke gleich bei der Erstellung mit einem Ablaufdatum versehen wird. Danach wird sie für drei Monate geparkt. Wird sie in dieser Zeit nicht benötigt, wandert sie in das Backup-Archiv.
Virtuelle und physikalische Welten vereinen
Idealerweise sollten Management-Tools nicht nur zeigen, was in der virtuellen Umgebung passiert, sondern auch die Auswirkungen auf die physikalische Basis darstellen. Detaillierte Ansichten beider Systemtypen sollten zusammengeführt werden, um Korrelationen aufzuzeigen. So erkennt man, wenn problematische VMs bei ihrer Wanderung von Server zu Server immer wieder Schwierigkeiten verursachen.
Verschiedene Workloads auf einen Host
Verschiedene Applikationen haben unterschiedliche Profile bei der Auslastung von CPU, RAM, Netzwerk und Storage. Auch die tageszeitliche Auslastung hat je nach Anwendung andere Lastspitzen. Daher ist es günstiger, möglichst unterschiedliche Anwendungen auf einem Server zu konsolidieren, als sie funktional zu gruppieren. Bei der Gruppierung sollte man jedoch auch den Datenverkehr zwischen den VMs berücksichtigen und möglichst innerhalb des physischen Servers halten.
Gruppierung beim Einsatz von Live-Migration
Live-Migrations-Tools wie etwa VMotion von VMware erlauben es, eine virtuelle Maschine im laufenden Betrieb unverzüglich von einem Server auf einen anderen zu verschieben. Sinnvolle Kombinationen von Applikationen auf einem Server dürfen aber nicht durch den Einsatz dieser Technologie zerrissen werden. Vielmehr muss die Planung berücksichtigen, dass komplette Gruppierungen dem Live-Migrationsprozess unterzogen werden.
Weitere Tipps zum Betrieb virtueller Server
Arbeitsspeicher fest zuweisen
Virtuelle Maschinen sollten ebenso viel „echten“ RAM exklusiv erhalten, wie ein physischer Server erhalten würde. Sobald die virtuellen Maschinen mehr Speicher anfordern, als physikalisch auf dem Host vorhanden ist, bricht die Performance stark ein. Zusätzlich muss ausreichend Arbeitsspeicher für das Host-System vorhanden sein, 1 GByte ist dabei nicht zu viel.
Prozessoren überallokieren
Der Systemverwalter sollte den virtuellen Servern in der Summe mehr CPUs zuweisen, als tatsächlich vorhanden sind. Nur durch die Überbuchung kann die Auslastung und damit die Gesamtleistung gesteigert werden. VMware empfiehlt aber beispielsweise beim SAP-Betrieb, eine physikalische CPU komplett für den Host selbst freizuhalten. Auch Novell hält es bei SAP unter Linux für vorteilhaft, der Dom 0 eine dedizierte CPU zuzuweisen, sofern auch die SAP-Datenbank innerhalb eines virtuellen SAP-Servers läuft. Tests von VMware etwa zeigten, dass sich die CPU-Ressourcen bis zu 50 Prozent überallokieren lassen, ohne die Stabilität des Gesamtsystems zu gefährden.
Redundanz bei der Hardware einplanen
Eine Plattform für mehrere virtuelle Server sollte über mindestens vier unabhängige Netzwerk-Ports und zwei Fibre-Channel-HBA-Ports verfügen. Kommen abgeschottete Umgebungen, etwa eine DMZ, hinzu, dann erhöht sich zwingend der Bedarf; das Gleiche gilt für die Zahl der Switches etc.
Notfallplan für multiplen Server-Ausfall erstellen
Bei physikalischen Systemen lässt sich der Defekt eines Servers durch eine Failover-Lösung relativ leicht abfangen. Außerdem sind davon meist nur wenige Anwendungen betroffen. In virtuellen Umgebungen hingegen kann der Ausfall eines Servers ein großes Loch in die Applikationslandschaft reißen, wenn keine angemessenen Konzepte für den Ernstfall existieren.
Virtuelle Ressourcen inventarisieren
Damit IT-Verantwortliche zu jedem Zeitpunkt einen Überblick über die verfügbaren virtuellen Ressourcen haben, ist ein striktes Life-Cycle-Management erforderlich, das jede virtuelle Maschine von ihrer Erstellung bis zu ihrer Ausmusterung verfolgt. Dabei sollte ersichtlich sein, welche Änderungen an einer VM vorgenommen und welche Patches eingespielt wurden. Daraus resultieren Vorteile für Performance und Sicherheit, weil sich problematische VMs leicht ausmustern und bewährte Images erkennen lassen.
Der Administrator als "Super Super User"
Der Administrator erhält durch Virtualisierungsprojekte die Rolle eines "Super Super Users", der viele virtuelle Maschinen im Blick haben muss. Der kleinste Fehler kann sich hier auf die komplette Server-Landschaft auswirken. Dies muss mit durchdachten Kontrollmechanismen und der Einhaltung des Vier-Augen-Prinzips vermieden werden.
Tipps zur Storage-Virtualisierung
Die Storage-Strategie festklopfen
Wie viel Agilität eine Firma mit virtualisierten Deployments gewinnt, hängt entscheidend davon ab, wie und wo virtuelle Images und Anwendungsdaten gespeichert werden. Wenn ein Administrator virtuelle Images etwa auf Direct-Attached Storage unterbringt, beschneidet er die Möglichkeiten der Replikation oder Wiederherstellung im Fehlerfall. Wer seine Images auf einem zentralen Storage-System ablegt, kann von jedem angeschlossenen Server darauf zuzugreifen.
Konservative Storage-Virtualisierung
Wie bei der Server-Virtualisierung sollte man bei der Storage-Virtualisierung mit kleinen Teilprojekten beginnen. Bewährt hat sich eine konservative Strategie, die den Status quo der Infrastruktur nicht durcheinanderwirbelt. Dadurch muss sich die IT-Abteilung auch weniger mit Widerständen anderer Geschäftsbereiche herumschlagen.
Komplettlösung als Endziel
Ein leistungsfähiges Virtualisierungssystem muss sich langfristig als der ganze im Unternehmen vorhandene Speicher präsentieren. Speicherbereiche, die nicht zu diesem System gehören, sind folglich zu vermeiden. Das Storage-Produkt sollte auch die Zugriffe auf alle darunterliegenden physikalischen Speicherkomponenten virtualisieren und transparent verwalten.
Hochleistungsdatenbanken nicht virtualisieren
Einige Anwendungen sind für Virtualisierung weniger geeignet, so etwa Livecache-Systeme von SAP. Diese Server halten große Teile der Datenbank im Arbeitsspeicher vor, um die Performance zu erhöhen. SAP weist seine Anwender zudem darauf hin, dass der Betrieb von geschäftskritischen Hochleistungsdatenbanken auf Virtualisierungsplattformen von Datenbankherstellern im Allgemeinen nicht empfohlen wird.
Storage-Anbindung überdenken
Moderne Systeme mit Quad-Core-CPUs und entsprechendem Arbeitsspeicher bieten genügend Reserven für die Server-Hosts; hier sind Fehlplanungen selten. Dagegen wird oftmals der eigentliche Flaschenhals vergessen – die Massenspeicheranbindung: Probleme hier sind entweder zu kleine oder zu große LUNs, falsche Raid-Sets und falsches Zoning. Die Lösung liegt auf der Hand: Genaue Planung im Vorfeld hilft, Engpässe zu erkennen.
Storage großzügig dimensionieren
Die Auswahl der Komponenten im Storage-Server (FC- und Netzwerkkarten bzw. RAM) wird aus Kostengründen häufig am unteren Limit vorgenommen. Ein Storage-Cluster sollte jedoch so dimensioniert sein, dass im Desaster-Fall ein einziger Server die Last abfangen kann.
Weitere Tipps zur Storage-Virtualisierung
Ausfallverhalten abklären
Ein typisches Missverständnis bei der Storage-Anbindung ist die Funktionsweise von Alternate Pathing/Multipathing virtueller Systeme. Dies wird vom Endkunden oft so verstanden, dass der Applikations-Server unterbrechungsfrei von einem Storage-System auf das andere umschalten kann. Dem Kunden ist dabei meist nicht bewusst, dass bei Produkten bestimmter Hersteller eine gewisse Umschaltzeit entsteht, da ein Script oder sogar ein händisches Eingreifen notwendig ist und es hierdurch zu Ausfallzeiten kommt.
Backup und Desaster Recovery
Oft wird die Backup- und Desaster-Recovery-Strategie nicht sofort an das neue Virtualisierungs-Konzept angepasst. Dieser Fehler kann katastrophale Folgen haben. Der Produktivbetrieb einer virtuellen Umgebung darf deshalb erst dann beginnen, wenn auch die Backup-Prozeduren geklärt und getestet sind.
1:1-Zoning bei Applikations-Servern
Das Zoning der FC-Switch-Umgebung sollte in virtuellen Umgebungen so eingerichtet werden, dass sich die Applications-Server nicht gegenseitig behindern können. Aus diesem Grund wäre ein 1:1-Zoning zu favorisieren. Dies verursacht bei der Einrichtung zwar einen etwas größeren Aufwand, hat aber den Vorteil, dass die Applications-Server einander nicht stören.
Dokumentation bei der Storage-Anbindung
Ein Fehler, der sehr häufig bei der Storage-Virtualisierung begangen wird, sind das unzureichende Testen, bevor das System online geschaltet wird, und die mangelnde Dokumentation. Diese Dokumentation muss so umfangreich gestaltet und auch aktuell gehalten werden, dass eine einwandfreie Rekonstruktion der Systeme im Falle einer Störung möglich ist.
Treiberfrage für Storage abklären
Manche Storage-Systeme benötigen sehr spezielle Treiber, die hochgradig optimiert sind. Diese können in virtuellen Umgebungen durchaus Probleme verursachen, die sowohl auf dem Storage-Server als auch bei den angebundenen Servern auftreten. Daher sollte man die Kompatibilität nicht nur zur Server-Hardware, sondern auch zum Virtualisierungsprodukt unbedingt vorab klären. (tecchannel/cm)