VMware Deutschland

Zehn vermeidbare Fehler bei der Virtualisierung

15.02.2008
Virtualisierung ist das Top-Thema in der IT-Welt. Nur: Wer schnell virtualisiert, kann viele Fehler machen. Wie diese vermieden werden können, erläutert Martin Niemer von VMware.

1 Alles auf eine Karte setzen, überstützter Start

Sofort alle vorhandenen Server zu virtualisieren ist zwar ein ehrgeiziges Ziel, führt aber selten zum Erfolg. Besser wäre es, mit kleinen, überschaubaren Pilotprojekten zu beginnen, wenn das Know-how nicht vorhanden ist. Hier wäre es angebracht, erfahrenen Consultants die Planung zu überlassen. Im Endeffekt gestaltet sich das günstiger als ein unerfahrenes Step-by-Step-Vorgehen.

2 Fehlende Erfahrung, mangelndes technisches Wissen:

Vieles spricht für eine virtuelle Infrastruktur, vor allem die Verfügbarkeit der Applikationen und die verbesserte Hardwareauslastung.

Gerade Virtualisierung erfordert Wissen auf unterschiedlichsten Gebieten. SAN, Netzwerk und Betriebssysteme seien hier nur beispielhaft erwähnt. So verstehen etwa viele SAN-Admins die neuen Anforderungen der Hosts an LUN-Größen oder Raid-Konfigurationen noch nicht ausreichend und arbeiten weiterhin mit ihren bisherigen Erfahrungen. Unvorhergesehene Kapazitätsengpässe sind hierbei das kleinere Übel. Es fehlt zudem die Bereitschaft zum Umdenken eingefleischter Netzwerk- und SAN-Admins. Auch hier haben erfahrene Partner die Möglichkeit, Aufklärungsarbeit zu leisten und entsprechend Wissen zu vermitteln.

3 Mangelhafte Planung von Plattenplatz und Speicherstruktur

Hier entstehen bereits im Vorfeld bei falscher Planung schwer zu korrigierende Fehler. Die Kapazitätsplanung der Server-Hosts selbst ist eher unkompliziert. So bieten moderne Systeme mit Quad-Core-CPUs und entsprechendem Arbeitsspeicher genügend Reserven. Dagegen wird oftmals der eigentliche Flaschenhals vergessen - die Massenspeicheranbindung: Probleme hier sind entweder zu kleine oder zu große LUNs, falsche Raid-Sets und falsches Zoning. Auch Perfomance-Engpässe (Ursache: zum Beispiel viele VMs über den gleichen Pfad und auf der gleichen LUN) machen dem Vorhaben Virtualisierung schnell ein Ende. Die Lösung liegt auf der Hand: Genaue Planung im Vorfeld hilft Engpässe zu erkennen.

4 Virtueller Wildwuchs

Jeder darf VMs erstellen? Diese Einstellung führt schnell zum Kollaps; ebenso die unkoordinierte Erstellung einer "Testumgebung zwischendurch". Wer nach dem Motto handelt, jederzeit neue Server für jeden einzelnen Dienst aufzusetzen, stößt an unüberwindbare Grenzen. Zu viele VMs führen ferner zu erschwerter Verwaltung - konträr zur eigentlichen Bestimmung virtueller Systeme. Dazu kommt, dass Patch-Stände und Historie der VMs bzw. Clone-Generationen nicht mehr nachvollziehbar sind. Die Lösung hierbei sind gute zentrale Verwaltungs-Tools.

5 Lizenzfragen

Eng mit obigem Punkt "virtueller Wildwuchs" ist auch die Frage nach der Lizenz der virtuellen Systeme und der Applikationen verbunden. Für jede VM eine Lizenz bedeutet im Umkehrschluss steigende Kosten bei parallel wachsender Zahl von VMs. Genaue Betrachtung von OS-Lizenzmodellen ist hier oberstes Gebot. So kann zum Beispiel ein Einsatz der Windows 2003 Datacenter Edition interessant sein, weil beliebig viele OS-Instanzen auf einem virtuellen Server erlaubt sind.

6 Verwaltung und Überwachung:

Überwachung ist genauso wichtig wie bei physikalischen Rechnern. Neben CPU-Auslastung und Hauptspeicherbedarf sind volllaufende Platten in den VMs und den LUNs im SAN häufigste Fehlerursachen. Eine steigende Anzahl VMs verschärft das Problem. Überwachen Sie Performance und Patch-Zustand!

7 Zu geringe Absicherung des Risikos

Oftmals laufen zu viele Systeme und Dienste auf wenigen Servern, der Ausfall einer Komponente hat größere Folgen als angenommen. Daher sollten Verantwortliche die Konzepte für Redundanz und Desaster Recovery sowie Sicherheit überdenken. Hier bietet Virtualisierung eine große Chance, weil sie den Desaster-Recovery-Prozess deutlich vereinfacht gegenüber der physikalischen Welt. Auch hier ist die Zusammenarbeit mit einem guten Consulting-Partner wichtig.

8 Zu wenig an die Redundanz gedacht

Über mindestens vier Netzwerkkarten-Ports und zwei HBA-Ports sollte ein ESX-Host verfügen. Kommen abgeschottete Umgebungen, etwa eine DMZ, hinzu, dann erhöht sich zwingend der Bedarf; ebenso die Zahl der Switches etc.

9 Akzeptanzfragen

Vor allem in größeren Umgebungen sollte die Akzeptanz der neuen Infrastruktur in den Abteilungen garantiert werden, denn Virtualisierung führt zu größeren Umwälzungen der gewohnten Struktur. Bisher isolierte Inseln werden mit anderen Lösungen auf die gleichen Server konsolidiert, das erfordert Bereitschaft zum Umdenken und Dazulernen. Hinzu kommt, dass durch die neue Schicht plötzlich neue Verantwortliche für die Basistechnik da sind.

10 Falscher Partner

Nur zertifizierte Partner verfügen über das nötige Know-how. Andernfalls kann bei einem Projekte aus dem anvisierten Budget schnell ein Vielfaches werden oder der gewünschte Effekt gänzlich ausbleiben. (wl)