Kein Zweifel: Mit den Möglichkeiten von Virtualisierung ist die IT in ein neues Zeitalter eingetreten. Gestiegen ist aber auch die Anzahl der Risiken.
Was gerne übersehen wird: Die Beherrschung von Virtualisierung erfordert gesteigertes Know-how und den Einsatz zusätzlicher Tools für Verwaltung und besonders Automatisierung. Virtualisierte Rechenzentren führen dazu, dass sich das Tempo von Veränderungen der IT-Infrastruktur radikalisiert. Virtuelle Maschinen (VMs) lassen sich schnell installieren und gegebenenfalls neu konfigurieren, I/O-Kapazitäten sind flexibel verschiebbar und Applikationen können je nach Bedarf hoch- und runtergefahren werden. Die Fortschrittsfanfaren tönen in voller Lautstärke.
Aber es sollte ebenso zur Kenntnis genommen werden, dass sich mit radikalen Veränderungen erfahrungsgemäß auch das Risiko von Fehlern und unausgereiften Konzepten – von trial and error – erhöht. Analysten gehen laut Steve Nye von Infoblox davon aus, Management-Fehler würden 60 bis 80 Prozent aller Probleme in den Rechenzentren verursachen. Es stellt sich also die Frage, wie die Stabilität der IT-Infrastruktur bei gleichzeitiger Ausnutzung der Vorteile von Virtualisierung gewährleistet werden kann.
Doch muss in einem ersten Schritt geklärt werden, wo genau Fehler auftreten. Hypervisoren agieren nicht im luftleeren Raum. Sie bewegen sich inmitten einer alten Welt aus Servern, Speichersystemen und Netzwerken. VMs bringen zwar ein gewisses Maß an Flexibilität und Automatisierung in die klassischen Server, aber schnell droht der Überblick verloren zu gehen.
Nach einer Untersuchung des Anbieters Infoblox, der sich vor allem um Netzwerk-Automatisierung kümmert, geben 70 Prozent der befragten Unternehmen an, mit der Einführung von Virtualisierung sei die Belastung des Netzwerks stark angestiegen.
Als Ursachen dafür werden genannt:
-
Speichersysteme
-
Anwender, Workstations und Partner-Netzwerke
-
Load Balancer und Security-Appliances
-
entfernt aufgestellte Firmen-Server (zum Beispiel in Zweigstellen)
-
noch nicht virtualisierte physikalische Server
-
Einsatz von unterschiedlichen Hypervisoren, die nicht miteinander kompatibel sind
-
Private Clouds, Test-Umgebungen und spezielle Cluster
Dort, wo sich physikalische und virtuelle Umgebung berühren, ist die Wahrscheinlichkeit für das Entstehen von Betriebsfehlern hoch. So könnte die Konfiguration des Hypervisors falsch eingestellt sein, oder die Daten der äußeren, nicht-virtuellen Umgebung sind nicht genau auf die VMs und deren Betriebssysteme oder Applikationen abgestimmt. Treten Performance-Probleme auf, muss in der Regel auf beiden Seiten der virtuellen Trennlinie nach den Ursachen gesucht werden.
Werden neue Anwendungen auf VMs gelegt, sollte man im Vorfeld eine Prüfung vornehmen. Fehler und Inkonsistenzen werden meistens in drei Bereichen auftreten:
-
bei der Performance der Applikationen
-
bei verspäteter Ausführung von Programmanweisungen
-
bei Betriebsproblemen, die ohne Hilfe der IT-Administratoren nicht zu lösen sind.
Beispiele für häufig auftretende Probleme sind:
1. Unzureichende Performance der Anwendungen
-
Die Parameter für den Port- und den Netzwerkzugang stimmen nicht überein. Viele Parameter wirken sich direkt auf die Performance aus, zum Beispiel Port Duplex, QOS-Einstellungen für das Netzwerk (Quality of Service) oder Firewall-Zugang.
-
Geräte ohne Voreinstellungen werden ins Netzwerk gestellt, zum Beispiel mit falschen IP-Nummern oder fehlerhaften Protokolleinstellungen.
-
Konfigurationen auf der Basis bisheriger "Best Practice", die ohne Überprüfung auch für virtuelle Umgebungen gelten sollen.
2. Befehle werden verspätet ausgeführt
-
Wird ein virtueller Server wegen Upgrades oder Überprüfung migriert, müssen die Einstellungen am Ziel mit dem Netzwerk kompatibel sein. Manuelle nachträgliche Einstellungen kosten zu viel Zeit, vor allem im Vergleich zu der im Prinzip möglichen Direktmigration inklusive aller Parameter.
-
Wird eine virtuelle Maschine für Disaster Recovery eingerichtet, getestet oder für ein Update vorbereitet, müssen die Netzeinstellungen mit der Master-Site übereinstimmen. Manuelles Nachdrehen führt ebenfalls zu zeitlichen Verzögerungen.
-
Wenn neue Server in ein Load-Balancing-System integriert werden, müssen voraussichtlich verschiedene Geräte mit einem Update versehen werden, darunter physische Switches, Firewall und Loadbalancer. Manuelle Einstellungen dauern meistens länger als die Installation eines neuen virtuellen Servers.
3. IT-Administratoren verschwenden zu viel Zeit mit Routine-Arbeiten
-
Tagtägliche Aufgaben wie die Zuteilung von IP-Adressen müssen koordiniert werden. Passiert das nicht, erfordert es besonders viel Aufwand und Zeit, irrtümliche oder zufällige Zuweisungen zurückzuverfolgen und zu ändern.
-
Troubleshooting erfordert oft das Aufspüren von Logs und Alerts aus verschiedenen Quellen. Geht es um physikalische und virtuelle Server, kommt noch eine Sucharbeit per Hand hinzu.
-
Versuchen nicht-authorisierte Personen, VMs zu ändern oder zu verschieben, entsteht ein zusätzlicher Aufwand für die IT-Abteilung, dies zu unterbinden oder zumindest unter Kontrolle zu halten.
Automatisierung wäre in den meisten der geschilderten Fälle ein möglicher Ausweg, die Infrastruktur unter permanenter Beobachtung und Kontrolle zu halten – vergleichbar dem Monitoring und Alerting der klassischen Management-Programme à la Tivoli von IBM oder OpenView von HP.
Doch bislang gibt es nur wenige entsprechende Angebote auf dem Markt.
Der Beitrag basiert auf einem Artikel der ChannelPartner-Schwester-Publikation CIO. Autor ist Hartmut Wiehr.