Wenn es darum geht, die IT-Infrastruktur effizienter zu gestalten, ist Server-Virtualisierung heute in den meisten Unternehmen gesetzt. Doch einschlägige Projekte sind komplex und bergen jede Menge Fallen. Gefragt sind deshalb vor allem klare Ziele, eine gründliche Analyse des Ist-Zustands und eine exakte Planung. CIOs müssen zunächst die Frage beantworten, ob sich eine Virtualisierung überhaupt für das Unternehmen eignet und was damit erreicht werden soll.
Schritt 1: Ziele und Strategien festlegen
Viele sehen die Vorteile der Server-Virtualisierung in erster Linie in einer besseren Auslastung der Systeme und niedrigeren IT-Kosten. Dazu gehört auch die Aussicht auf einen geringeren Stromverbrauch. Nicht wenige Projekte sind aber schlicht aus der Notwendigkeit geboren, den über Jahre entstandenen IT-Wildwuchs einzudämmen und Systeme zu konsolidieren. Andere Vorhaben zielen darauf ab, Geschäftspartnern einen schnellen Zugang zu den eigenen Server-Systemen zu ermöglichen oder auf Knopfdruck einen dedizierten virtuellen Server zur Verfügung stellen zu können. Der Service-Gedanke spielt dabei eine wichtige Rolle. "Die Server- oder Desktop-Virtualisierung verlangt eine interne serviceorientierte Aufstellung", sagt etwa Steve Janata, Senior Advisor der Experton Group AG. In vielen Fällen sei es ratsam, gleich in Richtung Private oder Public Cloud zu gehen (siehe auch: Die fünf Todsünden bei der Virtualisierung).
Gerade kleinere Unternehmen sollten sich fragen, wo der konkrete Nutzen der Virtualisierung für ein bestimmtes Vorhaben ist, empfiehlt Adam Hufnagel, Product Manager Application Delivery beim Systemintegrator Controlware. In manchen Fällen rechne sich ein Projekt gar nicht. Ersparnisse seien in jedem Fall möglich, kommentiert dagegen Janata. Doch nach den ersten Projekten und der damit größer werdenden Komplexität nähmen die Kostenvorteile ab. Auch darüber müssten sich Unternehmen im Klaren sein, bevor sie sich in die Virtualisierung stürzen. Sein Rat: IT-Manager sollten "Step by Step" beginnen und dabei Projekte priorisieren, in denen der potenzielle Nutzen der Virtualisierung am größten erscheint.
Schritt 2: Quick-Wins mit schnellem ROI zuerst angehen
In einem Sechs-Punkte-Programm für die Virtualisierung rät das Marktforschungsinstitut Gartner, klein anzufangen, aber groß zu denken ("Think big, start small") und einen raschen Return-on-Invest (ROI) einzufordern. "Quick-Win-Projekte helfen der Akzeptanz", postulierte schon vor einigen Jahren Robert Gerhards, Geschäftsführer des Leverkusener Beratungshauses Centracon: "Die Virtualisierung hat grundsätzlich das Potenzial, einen hohen wie verhältnismäßig kurzfristigen ROI zu erreichen. Diesem Anspruch der schnellen Amortisation muss das erste Projekt unbedingt folgen, um Erfolge vorweisen zu können."
Dirk Schiller, Practice Leader Consulting & Technology Solutions beim IT-Dienstleiter Computacenter, empfiehlt eine Wirtschaftlichkeitsberechnung. Anpassungen der Infrastruktur mit Blick auf Verfügbarkeit und Disaster Recovery sollten dabei ebenso einfließen wie eine Veränderung der Betriebsprozesse.
Schritt 3: Betriebsprozesse anpassen
Die Anpassung der Betriebsprozesse bis hin zur gesamten Organisation sieht Computacenter-Spezialist Schiller als einen vielfach unterschätzten Kraftakt. "Denn die Virtualisierung verändert das Aufgabenfeld der Administratoren. Dadurch fallen vorher voneinander abgegrenzte Admin-Bereiche zusammen, wie beispielsweise Server- und Netzwerkadministration durch die aktuellen Produkte von Cisco und VMware."
Controlware-Experte Hufnagel beobachtet in vielen mittelständischen Unternehmen ein organisatorisches Problem, wenn es um die Migration auf virtuelle Systeme geht. Eine mangelnden Kommunikation unter den IT-Abteilungen oder unzureichende Kenntnisse anderer IT-Disziplinen machten Projektverantwortlichen das Leben schwer. Gelegentlich müssten IT-Manager sehr sensibel mit der Furcht vor Kontrollverlust umgehen können. "Ob ich es zulasse, dass einige Administrator-Rollen mit einer Schlüsselfunktion in der IT über den Horizont der eigentlichen Spezialisierung hinaus agieren können, ist auch eine Organisationsfrage", kommentiert Hufnagel.
Shared Storage ist aus seiner Sicht in einer virtuellen IT-Infrastruktur unabdingbar. Aber gerade das "Teilen müssen" sei für manche Mitarbeiter oder ganze Abteilungen "eine eher ungewohnte Übung". Wenn die Zuständigkeits- oder Verantwortungsgrenzen verwischen, beginne sich zudem manch einer in der Fachabteilung zu fragen, ob die geforderten Service-Level-Agreements (SLAs) noch effizient ausgehandelt und durchgesetzt werden könnten. Andererseits würden die Fachabteilungen laut Hufnagel auch selbstbewusster, weil sie um die neuen Möglichkeiten wüssten und entsprechende Forderungen stellten. Dies gelte insbesondere in Bezug auf die Agilität, mit der IT-Ressourcen heute bereitgestellt werden können.
Schritt 4: Schulungen und Disziplin einfordern
Da es vielfach an Erfahrungen und Know-how mangelt, sind Schulungen erfolgskritisch für Projekte zur Server-Konsolidierung. Zumindest die IT-Abteilung sollte die nötigen Kenntnisse haben. Wenn alles reibungslos läuft, bekommt der einfache Büroangestellte vielleicht gar nichts mit von der Virtualisierung.
Im Sinne der Sicherheit und damit nicht jeder Mitarbeiter plötzlich seine eigene virtuelle Maschine (VM) einrichtet, was unter anderem neue Lizenzfragen aufwerfen kann, verlangt die Virtualisierung auch eine neue Disziplin der Mitarbeiter. Diese gilt es, zu überwachen. Denn sonst entsteht schnell ein neuer Server-Wust, dem man doch ein Ende bereiten wollte. Umso wichtiger ist vor der Migration eine genaue Bestandsaufnahme der vorhandenen IT-Komponenten.
Schritt 5: Analyse der Ist-Landschaft
Die Bestandaufnahme einschließlich Technologien und Applikationen in einer "Komponentenmatrix" steht für Computacenter-Manager Schiller ganz oben auf der To-do-Liste für eine erfolgreiche Server-Virtualisierung. Dabei müsse auch überprüft werden, in welcher Abhängigkeit die Systeme zueinander stehen und ob das Data Center die Technologie tatsächlich hosten kann. "Denn Aspekte wie Strom oder Klimatisierung können hinsichtlich des sich ändernden Bedarfs problematisch werden", so der Experte.
Eng an die Aufnahme des Ist-Bestands knüpft er eine Analyse der Auslastung aller Systeme einschließlich Netzwerk und Storage "über eine Dauer von mindestens einem Monat, besser über ein Quartal". Aus einem solchen Workload-Assessment bemisst sich der mögliche Konsolidierungsfaktor oder das Sizing.
Schritt 6: Workload-Assessment und Sizing
"Ein valides, auf den tatsächlichen Anforderungen des jeweiligen Unternehmens aufbauendes Sizing ist ein wichtiges Thema, dem man sich von Anfang an stellen sollte", rät Controlware-Manager Hufnagel. "Eine bloße Schätzung des Konsolidierungsfaktors von beispielsweise 1:10 kann ins Auge gehen". Er empfiehlt deshalb ein dediziertes Workload-Assessment. Auf längere Sicht zahle sich der Zusatzaufwand aus. In Testumgebungen einiger Hersteller würden bis zu 50 oder gar 100 virtuelle Maschinen auf einem physischen Server installiert, berichtet er. Allerdings fehlten in solchen Fällen häufig detaillierte Angaben zu den spezifischen Gegebenheiten.
In der Praxis müssten IT-Verantwortliche allerdings das Gesamtsystem berücksichtigen: Speicheranforderungen oder auch eine erhöhte I/O-Last zum Storage hin könnten den Konsolidierungsfaktor drastisch reduzieren. Die Frage der Wirtschaftlichkeit müsse dabei immer wieder neu gestellt werden.
Die Hersteller von Hypervisoren für die Virtualisierung bieten meist auch Tools zur Berechnung der Workloads und der nötigen Dimensionierung der Systeme an. Third-Party-Anbieter geben mitunter konkrete Empfehlungen für das Sizing und die Verteilung der Systeme. "Abhängig von den Lastprofilen der Anwendungen sollte eine Auslastung von 80 Prozent nicht überschritten, aber auch nicht deutlich unterschritten werden, um die Server auch energietechnisch wirtschaftlich zu betreiben", rät Computacenter-Mann Schiller. Das eigentliche Problem des richtigen Sizing stelle sich aber weniger im Server-Umfeld (CPU und Hauptspeicher) als vielmehr im Bereich Storage-Anbindung und Netzwerk-Performance.
Schritt 7: Scale-up oder Scale-out?
Die Frage, ob die Rechenlast für die Virtualisierung auf einen großen (Scale-up) oder viele kleinere Server (Scale-out) verteilt werden sollte, ist für Computacenter-Experte Schiller gar nicht mehr so eindeutig zu beantworten. Das liegt vor allem an der Leistungsfähigkeit heutiger Blade-Systeme. Vor drei Jahren hätte man für eine solche Performance noch zu klassischen Scale-up-Systemen geraten, heute gehe die Empfehlung eher zu Blades als Universal-Server. Abgesehen von wirtschaftlichen Überlegungen hinsichtlich Stromverbrauch und Klimatisierung müsse aber immer überprüft werden, ob die Blade-Server im Rechenzentrum sicher betrieben werden können.
Schritt 8: Security-Fragen klären
Ob es empfehlenswert ist, einen Notfall-Server parat zu haben, hängt laut Schiller von den Service-Level-Agreements (SLAs) und den Kundenanforderungen ab. Ist ein Ausfall im Bereich von mehreren Stunden tolerabel, gehe es auch ohne. "In der Regel ist es aber wirtschaftlicher für den Gesamtbetrieb, Ersatzsysteme bereitzustellen, auf die automatisch ausgewichen werden kann oder die im laufenden Betrieb für Lastspitzen zusätzliche Kapazitäten bereitstellen können", erläutert der Computacenter-Experte.
Verfügbarkeit und Disaster Recovery sind zentrale Aspekte der Sicherheit. Schiller rät darüber hinaus auch zu Fall-Back-Szenarien für die Migration der physikalischen Systeme auf die virtualisierte Plattform. "Manche entdecken das Thema Security erst später für sich", beobachtet Controlware-Manager Hufnagel. "Hin und wieder werden wir zum Review gerufen, weil Storage- oder Security-Konzepte sich als nicht ausreichend erweisen oder das Sizing nicht stimmt."
Experton-Berater Janata zufolge erfordert die Virtualisierung einen höheren Standardisierungsgrad. Das bedeute aber nicht, dass Schutz und Sicherheit der Daten auf der Strecke blieben, auch nicht in der "berühmten Wolke". Unternehmenskritische Daten oder Enterprise-Workloads in die Public Cloud auszulagern ist aus seiner Sicht aber trotzdem ein "No-Go".
Schritt 9: Lizenzfragen klären
Auch wenn manche Hersteller ihre Hypervisor im Einstiegssegment kostenlos anbieten, Virtualisierung zum Nulltarif gibt es nicht. Probleme bereiten können beispielsweise neue Lizenzforderungen der Softwarehersteller nach einer Virtualisierung. Michael Reiserer vom IT-Beratungshaus Reiserer & Partners hat sich intensiv damit beschäftigt, welche Zusatzkosten durch neue Lizenzmodelle entstehen oder ob es sogar Einsparpotenziale gibt. Bei virtuellen Systemen oder gar in der Cloud könne das, was anfangs einfach scheine, "höllisch komplex" werden, warnt er. Dies sei beispielsweise dann der Fall, wenn nicht nur pro Server oder CPU, sondern pro Prozessorkern oder gar pro MIPS (Million Instructions per Second) abgerechnet wird. Mit einem gründlichen Lizenz-Audit und "etwas Glück" könnten Unternehmen die Lizenzkosten in virtualisierten Welten aber auch senken.
Schritt 10: Abschalten der Altsysteme
Herstellerversprechen und die tatsächlich erzielbaren Sparpotenziale im Zuge einer Server-Virtualisierung klaffen oft auseinander. Computacenter-Experte Schiller glaubt dennoch, dass Unternehme sogar mehr sparen können als ursprünglich angenommen. Voraussetzung dafür sei, dass sie nicht mehr benötigte Systeme auch tatsächlich ausrangierten. Dieser Aspekt werde in der Praxis häufig vernachlässigt. Zu den "Stolperfallen" bei der realistischen Einschätzung der Gesamtkosten gehört für ihn auch ein eventueller Mehraufwand in der IT-Infrastruktur für die Ausfallsicherheit. Die potenzielle Reduzierung der Stromkosten unterschätzten die Unternehmen dagegen häufig.
Fazit
Ob und wann sich eine Server-Virtualisierung anbietet, muss jedes Unternehmen für sich entscheiden. "Per se kann ein solches Projekt nicht falsch sein, man kann es aber falsch angehen", resümiert Experte Schiller. "Zum Beispiel durch falsche Planung, falsches Sizing oder die Konsolidierung und Virtualisierung der falschen Systeme. Wenn Notfallplanung und Sicherheitsfragen nicht berücksichtigt werden, kein Life-Cycle für virtuelle Systeme feststeht und das Lizenzmanagement nicht angepasst wird, ist das Ergebnis oft nachteilig." Andererseits ließen sich mit Blick auf die Automatisierung und Dynamisierung des Data Center noch weitere Vorteile erzielen - bis hin zur Bereitstellung von Private-Cloud-Services. (wh)