Mangelendes Verständnis für VDI-Techniken
Das sieht Gartner in einem Arbeitspapier über Argumente für VDI vom Januar 2012 allerdings anders. Hier wird BYOD als wichtiges Argument für alle Desktop-Virtualisierungstechnologien gesehen. Ebenfalls wichtig ist danach das vereinfachte Management. Bevor das zu Buche schlagen kann, muss man allerdings das Konzept VDI und seine Unterschiede zu den anderen Client-Virtualisierungsmöglichkeiten erst einmal verstehen - und genau das, so IDC-Mann Srikumar, sei bei vielen potentiellen Anwendern noch nicht der Fall.
Das liege auch an der "wolkigen" Kommunikation der Hersteller. Srikumar: "Es fehlt Wissen in den Unternehmen, deshalb braucht man am Anfang Berater." Die aber kosten wiederum Geld. Ein weiterer Grund ist die oft verwirrende Kommunikation der Hersteller, die die reichlich fein gedröselten Unterschiede zwischen den Technologievarianten nicht immer so kommunizieren, dass sie jedem eingängig und verständlich werden. "Die Hersteller reden derzeit viel über Cloud, und Anwender wollen eigentlich auch Cloud-basierende Anwendungen. Doch wie sie die im Unternehmen implementieren sollen, wissen sie häufig noch nicht im Detail", sagt Srikumar.
- Fünf Thesen zur Virtualisierung
Virtualisierungstechniken sind vielerorts installiert, schöpfen aber ihr Potential zur Effizienzsteigerung und Kostenersparnis nicht aus. - These 1: Die zweite Virtualisierungswelle steht noch bevor
Virtualisierungstechnologien haben eine Revolution in der IT bewirkt. Zwei Hauptfaktoren haben sie zum festen Bestandteil in der Planung von IT-Infrastrukturen gemacht: die Basistechnologien für Virtualisierung sind zur Reife gelangt, woraus eine großen Produktauswahl für die Anwender hervorgegangen ist; zugleich sind die Rechnerkapazitäten durch Multicore-Server so stark gestiegen, dass diese ohne geeignete Techniken gar nicht ausgelastet werden können. - These 2: Ein Hypervisor macht noch keine moderne IT-Umgebung
Stellt sich die Frage, warum die Erneuerung der IT bislang stecken geblieben ist. Das Angebot ist da, es reicht von umfassenden Lösungen bis hin zu kostenlosen Produkten und Open-Source-Projekten. Sie erlauben es, eine stabile und zuverlässige virtualisierte Umgebung aufzubauen. Die Erkenntnis setzt sich durch, dass Technik - also der Hypervisor - allein noch keine Revolution im Rechenzentrum bewirken und quasi im Vorbeigehen Kosten sparen kann. - These 3: Storage-Virtualisierung ist der nächste logische Schritt
Server-Virtualisierung kann nicht gelingen ohne ein ausgefeiltes Storage-System. Lokaler Festplatten-Speicher genügt dabei nicht den Anforderungen an Hochverfügbarkeit, dynamischer Lastverteilung und hochgradiger Automatisierung. Shared Storage ist daher unabdingbare Voraussetzung. Speichersysteme müssen zuverlässig, ausfallsicher und flexibel sein. Sie müssen aber auch Kostenkontrolle bieten, denn gerade in virtualisierten Server-Umgebungen kann der Speicherbedarf explodieren. Gefragt sind Konzepte zur effizienten Speichernutzung sowie zur transparenten Integration verschiedener Systeme auch unterschiedlicher Hersteller zu einem Gesamtsystem. - These 4: Desktop-Virtualisierung nur betriebswirtschaftlich angehen
Trotz vieler Herausforderungen und noch verbesserungswürdiger Durchdringung in der aktuellen IT-Landschaft ist die Server-Virtualisierung eine akzeptierte Technik, die viele Unternehmen auf dem Radar ihrer anstehenden Investitionen haben. Zunehmend rückt darüber hinaus die Virtualisierung von Desktops in den Fokus der IT-Verantwortlichen. Denn auch hier locken ähnliche Vorteile wie für die Server. - These 5: Die Cloud braucht noch Zeit
Cloud Computing ist der nächste folgerichtige Evolutionsschritt der Virtualisierung in der Unternehmens-IT. Cloud Computing wird dabei häufig irrigerweise synonym mit Virtualisierung verwendet, meint aber vor allem die automatisierte und standardisierte Bereitstellung abstrahierter IT-Infrastrukturen wie zum Beispiel Rechenkapazität, Datenspeicher, fertige Programmpakete, die ein Anbieter dynamisch an den Bedarf angepasst auf Basis von Virtualisierungstechnologien über ein Netzwerk zur Verfügung stellt. Die Abrechnung erfolgt dabei meist nutzungsabhängig.
Am komplexen Markt kann der fehlende Überblick über die Desktop-Virtualisierung jedenfalls nicht liegen. Denn die Zahl der Anbieter, die wirklich etwas in petto haben, ist extrem übersichtlich: Bei weitem führend mit rund 90 Prozent Anteil sind Citrix und VMware, hinzu kommen derzeit Player wie Microsoft, Quest, Red Hat oder Parallels, wobei aber Microsoft eng mit Citrix zusammenarbeitet und wichtige Teile von VDI-Implementierungen dort bezieht. Die einschlägigen Produkte heißen VMware View, Citrix Xen Desktop, vWorkspace (Quest) und Red Hat Enterprise Virtualization for Desktops. Um sie herum bauen die Hersteller immer weitere Schichten ergänzender Module oder Lösungen, die zwar nicht die Übersicht erhöhen, aber helfen sollen, VDI für die Unternehmen handhabbarer zu machen.
Ein Beispiel dafür sind Versuche, mehr Speichervolumen vom Server in einen vor Ort befindlichen Cache oder anderweitigen Speicher zu verlagern, wie es Citrix Intellicache und VMware View Accelerator tun. Das senkt die überbordenden Speicherkosten. Ein weiterer Ansatz besteht darin, die Thin-Client-Hardware billiger zu machen. So berichtet Gartner-Analyst Wolf von neuartigen, ARM-basierenden Clients, wie sie etwa Wyse im vergangenen Jahr auf den Markt brachte. Auch Citrix und N-Computing, ein Desktop-Virtualisierungs-Pionier, arbeiten an billigeren Thin Clients. "Bis Ende des laufenden Jahres wird es viele Alternativen für unter 150 Dollar geben, was dann die Preise für die Gesamtlösung drückt", meint Wolf.
Am höchsten ist der Nutzen von VDI nach übereinstimmender Meinung aller Fachleute in Einsatzumgebungen, wo die Endanwender an den Thin Clients nur auf eine oder zumindest eine überschaubare Anzahl von Applikationen zugreifen müssen, und dies möglichst auch nicht mit einer unüberschaubaren Vielfalt von Endgeräten. Denn dann hält sich der Aufwand für die Implementierung in Grenzen und die VDI-Implementierung erhöht die Effizienz des Managements tatsächlich sehr, da sich die User-VMs nur geringfügig voneinander unterscheiden. Umfelder dagegen, in denen jeder einen anderen Programmbedarf hat und in denen die unterschiedlichsten Endgeräte vorgehalten werden oder riesige Datenmengen hin- und her zu transportieren sind, wie etwa beim CAD-Design, sind für VDI-Konzepte eine harte Nuss.