Virtualisieren mit Xen

Wie baut man die optimale Serverfarm?

09.09.2009
Viele Unternehmen vertrauen auf klassisches Server-Based-Computing. Das ist heute nicht mehr zeitgemäß, meinen Jörn Meyer und Robert Woelfer von PC-Ware.

Viele Unternehmen vertrauen beim Bereitstellen ihrer Applikationen auf klassisches Server-Based-Computing. Aufgrund steigender Anforderungen an die IT ist dies heute allerdings nicht mehr zeitgemäß. Jörn Meyer und Robert Woelfer von PC-Ware erklären, warum das so ist.

Wenn es darum geht, Benutzereinstellungen effektiv zu verwalten oder vorhandene Ressourcen optimal einzusetzen und bedarfsgerecht bereitzustellen, stößt der klassische Ansatz, die Last auf viele kleinere physikalische Server zu verteilen (Scale-Out) schnell an seine Grenzen. Durch den Einsatz aktueller Virtualisierungs-Technologien wird klassisches Server-Based-Computing wieder zukunftsfähig.

Stromkosten sparen

Ein bedeutender Vorteil der Virtualisierung ist die optimale Auslastung der verfügbaren Hardware-Ressourcen, da sich so sowohl Energie- und Betriebs- als auch Anschaffungskosten senken lassen. Darüber hinaus stehen durch Virtualisierung Systemen und Anwendern stets genau die Ressourcen zur Verfügung, die sie gerade benötigen. Zudem können die Systeme in virtualisierten Umgebungen außerhalb der Produktionszeiten einfach gedrosselt beziehungsweise in den Standy-by-Modus geschaltet werden. Sobald die Last mit Beginn der Produktionszeiten wieder ansteigt, nehmen die benötigten Systeme den Betrieb auf der Hardware wieder auf, die am effektivsten betrieben werden kann. So lassen sich die Energiekosten weiter senken und gleichzeitig die vorhandenen Kapazitäten optimal nutzen.

Um von diesen Vorteilen auch beim klassischen Server-Based-Computing in der Praxis zu profitieren, setzen viele Unternehmen auf Lösungen von Citrix Systems. Dabei ist das Delivery Center des Anbieters das, was ein Logistikzentrum für den Einzelhändler ist. Die Hauptaufgabe dieses Logistikzentrums besteht darin, Endanwender die benötigten Applikationen bereit zu stellen. Die Applikationen kommen auf unterschiedlichen Wegen auf der einen Seite in das Logistikzentrum herein und müssen dann möglichst schnell und sicher auf der anderen Seite wieder heraus und dann weiter zum Endanwender transportiert werden.

Das Delivery Center gewährleistet dabei die reibungslose, flexible, schnelle und sichere End-to-End-Zustellung der Apps und begleitet die Anwendung über alle Phasen des Transports bis hin zum eigentlichen Prozess des "zur Verfügung Stellens" der Applikation. Zahlreiche andere Anbieter verfolgen einen weniger ganzheitlichen Ansatz und positionieren sich zum Beispiel mit speziellen Lösungen für Softwareverteilung, Applikationsvirtualisierung oder für das Bereitstellen von Applikationen im Rechenzentrum. Um im Bild des Logistikzentrums zu bleiben: Den Weg in das Logistikzentrum hinein sowie den Betrieb innerhalb beherrschen einige Anbieter. Aber den Weg hinaus zum Endverbraucher und somit die ganzheitliche Abdeckung aller der dabei anfallenden Prozesse sind Ansatz und Fokus des Citrix Delivery Center.

Warum Citrix?

Entschließt sich ein Unternehmen, eine Citrix-Lösung einzuführen, muss es zunächst festlegen, welche Ergebnisse erzielt werden sollen. Die Auswahl der einzusetzenden Produkte sollte sich danach richten, ob beispielsweise die Sicherheit erhöht, die Betriebskosten reduziert, die Verfügbarkeit der Anwendungen verbessert oder mobile Arbeitsplätze beziehungsweise einzelne Niederlassungen angebunden werden sollen.

Die Basis der Lösung bildet in fast allen Fällen eine Hosting-Infrastruktur zur Virtualisierung von Windows-Servern. Citrix stellt dazu eine bereits reichhaltig ausgestattete Version seiner Virtualisierungslösung XenServer den Unternehmen kostenfrei zur Verfügung. Mit dieser Komponente ist es z.B. möglich, eine komplette Testumgebung aufzubauen. Eine typische Testumgebung für das zentrale Bereitstellen von Applikationen im Rechenzentrum mittels Citrix XenApp wird üblicherweise innerhalb von maximal fünf Tagen erstellt.

Mithilfe von Evaluierungs-Lizenzen lassen sich sämtliche Funktionen ohne großen Kostenaufwand einem Funktionstest unterziehen. Sofern alle Systeme virtualisiert wurden, können diese nach ihrem erfolgreichen Test einfach auf die leistungsfähigere Produktivhardware umgezogen werden. Durch einfachen Austausch der Evaluierungs- gegen Produktiv-Lizenzen können die einzelnen Komponenten dann innerhalb kürzester Zeit von der Testphase in den regulären Betrieb übergehen.

Wohin mit bestehenden IT-Komponenten?

Im Regelfall können mit Einführung der Virtualisierungslösung die vorhandenen Serversysteme weiterhin betrieben werden, sofern sie entweder Intel VT- oder AMD-V-Technologie unterstützen. Sie finden dann zum Beispiel als Virtualisierungs-Hosts Verwendung.

Auch bestehende Storage-Infrastrukturen auf Basis von iSCSI oder Fibre-Channel lassen sich meist problemlos anbinden. Des Weiteren bietet Citrix mit der StorageLink-Technologie eine offene Schnittstelle zwischen Virtualisierungs-Host und Storage-System an. Sie ermöglicht Storage-Herstellern, ihre Systeme mit dem Citrix-Virtualisierungssystem XenServer zu koppeln. Diese Schnittstelle stellt Citrix im Rahmen einer weitgehenden Kooperation auch für Microsofts Virtualisierungssystem Hyper-V zur Verfügung.

Für weitere Microsoft-Lösungen wie die Applikations-Virtualisierung App-V oder Produkte aus der Microsoft System Center-Familie bietet Citrix zusätzliche Funktionen an bzw. integriert von diesen Produkten bereitgestellte Funktionalitäten in die eigenen Systeme. Aber auch die Kombination von VMware-Lösungen mit Citrix-Produkten ist weiterhin problemlos möglich: So können zum Beispiel virtuelle Maschinen auf Basis von VMware durch den Citrix-Provisioning Server verwaltet werden. Tests im PC-WARE-Labor haben gezeigt, dass die Variante mit dem VMware ESX-Server dabei nicht langsamer ist als beispielsweise die Citrix-eigene Lösung XenServer.

Leistung und Verfügbarkeit gehen vor

Einer der großen Vorteile der Server-Virtualisierung an sich ist die einfache Erweiterbarkeit, die sich mit einer solchen Lösung erreichen lässt. Maßgeblichen Einfluss auf die Skalierbarkeit der Infrastruktur haben vor allem das Netzwerk und das Storage-System. Sofern an diesen Komponentenerweiterungen möglich sind und dadurch die Performance des Gesamtsystems auch bei steigender Belastung beibehalten werden kann, ist die Lösung unendlich skalierbar. Grundsätzlich sollte daher bei der Planung einer solchen Lösung beispielsweise eine durchgängige Gigabit-Anbindung der verschiedenen Komponenten einkalkuliert werden.

Die Host-Systeme für die virtuellen Gastmaschinen sind austauschbar und können je nach Ausstattung unterschiedlich stark belastet werden. Die Überwachung und Steuerung der verfügbaren Ressourcen übernimmt dabei die Virtualisierungs-Infrastruktur.

In der Transformation

Der Prozess des zur Verfügung Stellens von Applikationen befindet sich momentan in einer Transformationsphase. Neue Betriebssystemversionen wie Windows 7 oder Windows Server 2008 R2 und der zu erwartende grundlegende Wechsel der Architektur von x86 (32-Bit) auf x64 (64-Bit) stellen sowohl die Hersteller von Applikationen als auch die Unternehmen, die sie einsetzen, vor die Frage, wie Applikationen künftig effektiv zur Verfügung gestellt werden können.

Ein Ansatz besteht in der Virtualisierung der Applikation selbst. Dadurch wäre die Applikation unabhängig vom Betriebssystem und die Hersteller könnten sie distributionsfertig an den Kunden liefern. Dies würde eine enorme Erleichterung für die Unternehmen bedeuten, da sie nur mehr die Infrastruktur bereitstellen, aber nicht die eigentliche Distribution übernehmen müssten. Auch hier spielt die Server-Virtualisierung eine große Rolle: Mit ihr können Kunden Applikationen bequem zur Verfügung stellen.

Zur Startseite