Der Einzug mobiler Endgeräte in die Unternehmen wird die Virtualisierung der Clients und Desktops nur bedingt beflügeln, aber die Bereitstellung von Applikationen und Diensten um weitere Varianten bereichern.
"Dieses Jahr kommt der Durchbruch für die Desktop-Virtualisierung" - dies prognostizierten Hersteller und Marktforschungsinstitute 2009. Sie bekräftigten die Aussage 2010. Und wiederholten sie 2011. Wer 2012 nach diesem Satz sucht, wird ihn nicht finden.
Dabei versprach gerade die Desktop-Virtualisierung per VDI, viele drängende Probleme der IT-Leiter zu lösen und Wünsche der Mitarbeiter zu erfüllen: Zentrales Management bei höherer Sicherheit und Flexibilität für individuelle Anwender-Desktops - das klang doch geradezu nach sicherem Erfolgsrezept.
Bislang aber hat sich diese Technologie nicht auf breiter Basis durchgesetzt. Nach Aussagen von Chris Wolf, Vice President Research bei Gartner, werden aktuell lediglich zwei Prozent der Desktops weltweit als Virtual Desktop Infrastructure (VDI) betrieben. Warum eigentlich?
Eine Frage der Definition
"Vielleicht war diese Aussage 2009 ein wenig verfrüht. Allerdings liegt ein gewisser Optimismus in der Natur der Sache, wenn man von einer Technologie überzeugt ist", räumt Peter Goldbrunner, Director Channel Sales Germany bei Citrix, ein.Desktop-Virtualisierung werde außerdem fälschlicherweise häufig mit "VDI" gleichgesetzt.
Das VDI-Szenario ist jedoch nicht immer die passende oder die günstigere Alternative (siehe Bildergalerie). Das sieht auch Rolf Ferrenberg, Manager BU Desktop Delivery bei Arrow ECS, so: "Was bisher nicht stattgefunden hat, ist der Durchbruch der virtuellen Desktops, die, jeder für sich, in einer virtuellen Maschine ausgeführt werden."
Der Trend gehe dahin, virtuelle Applikationen und Desktops mit Applikationsservern bereitzustellen und nur in den Fällen, bei denen Anwendungen nicht oder nur eingeschränkt auf dieser Technologie lauffähig sind, auf VDI zu setzen.
Für Citrix, Microsoft und VMware ist VDI nur eine Variante der Desktop-Virtualisierung - neben Anwendungs-Virtualisierung, -Streaming oder Client-Virtualisierung. "Desktops, die von Applikationsservern mittels Microsoft Remote Desktop Services oder Citrix XenApp bereitgestellt werden, sind ebenfalls virtuell und erfreuen sich seit vielen Jahren zunehmender Beliebtheit", so Ferrenberg.
Der Optimismus der Anfangsjahre erweise sich laut Goldbrunner dennoch als berechtigt: "Die Desktop-Virtualisierung wird immer breiter eingesetzt." Die Verbreitung von Cloud-Lösungen werde diesen Trend noch verstärken. Im Bildungsbereich ebenso wie bei Banken, Versicherungen, in der öffentlichen Verwaltung, im Dienstleistungsbereich oder bei TK-Unternehmen habe sich die Desktop-Virtualisierung schon sehr gut durchgesetzt, bekräftigt auch Hagen Dommershausen, Marketing Director Central Europe bei Dell (Wyse).
Im Mac-Umfeld sei das Interesse der Neueinsteiger an der Desktop-Virtualisierung generell sehr groß, wie Alexander Pantos, Marketing Manager Consumer & SMB EMEA bei Parallels, berichtet: "Hier geht es insbesondere um die Sicherung bestehender Investitionen in (Windows-)Software."
Kosten-Killer auf den zweiten Blick
"Die Desktop-Virtualisierung hat sich hauptsächlich wegen der damit verbundenen hohen Kosten bei gleichzeitig noch zu hohem Administrationsaufwand nicht entscheidend durchgesetzt", so die Erfahrung von Thomas Reichenberger, IT-Consultant bei der ACP IT Solutions AG.
Das werde sich auch in absehbarer Zeit nicht ändern. "Verglichen mit virtuellen Desktops auf Applikationsservern benötigen VM-Hosted-Desktops etwa drei bis fünf Mal mehr Hardwareressourcen und eine kostspielige Microsoft-VDA-Lizenz", so Ferrenberg. Bei der Infrastruktur schlagen vor allem die Storage-Kosten zu Buche, merkt Frank Sahm, Technical Product Manager Server & Storage bei Tarox, an.
Die Kostenvorteile seien nicht sofort offensichtlich, aber durchaus erreichbar, hält Georg Dietsch, Director Enterprise Sales EMEA bei OCZ, dagegen: "Die Einführung einer VDI ist mit sehr großen Anfangsinvestitionen verbunden. Cost-Savings werden im OPEX-Bereich erzielt und lassen sich am Anfang schwer abschätzen."
Frank Sahm, Technical Product Manager Server & Storage bei Tarox, zufolge sind es vor allem die Lizenzkosten der Gastbetriebssysteme seitens Microsofts und Kosten für die erforderliche Infrastruktur - insbesondere Storage-seitig -, die der Desktop-Virtualisierung im Wege stehen.
Erfahrungswerte fehlen
Häufig könnten Anwender die Vorteile gegenüber den Terminal-Servern nicht wirklich erkennen, zumal es sich bei vielen Terminal-Server-Installationen wirtschaftlich nicht lohne, sie abzulösen, so die Erfahrung von Ansgar H. Licher, Geschäftsführer von LWsystems. Und nach Ansicht von Dr. Bernhard Schweitzer, Director Services bei Insight Deutschland, fehlt auch die Benutzererfahrung, was Georg Dietsch von OCZ bestätigt: "Die Firmen, die die Technologien eingeführt haben, berichten im positiven Sinne recht enthusiastisch von ihren Erfahrungen." Es seien eher "Gerüchte und Gefühle", die Nutzer wie Entscheider ausbremsten.
Teilweise liege es an den VDI-Produkten selbst, moniert Christian Leitenberger, Senior Consultant bei der Profi Engineering Systems AG: "Viele der VDI-Lösungen auf dem Markt sind unübersichtlich oder decken nicht alle gewünschten Funktionen ab." Obendrein seien die VDI-Lösungen der Marktführer bislang zu teuer gewesen, um einen schnellen RoI zu ermöglichen, findet Rainer Liedtke, Senior Regional Sales Manager D-A-CH, Country Manager Germany, bei Red Hat.
Diese Zeiten seien vorbei, kontert Holger Temme, Manager End User Computing Business Central Europe & RUME bei VMware: "VMware hat die Technologie weiterentwickelt, um die letzten Barrieren zu überwinden. Dabei lag der Fokus sehr stark auf der Reduzierung der Kapitalinvestitionskosten für VDI, die VMware gemeinsam mit seinen Partnern auf ungefähr 200 US-Dollar pro User reduzieren konnte. Die Desktop-Virtualisierung kann damit dem Kunden helfen, sowohl die OPEX- als auch die CAPEX-Kosten der Desktop-Landschaft zu reduzieren."
Ein weiterer Grund für die verzögerte Einführung ist die hierzulande auch fehlende Bandbreite mit ausreichender Geschwindigkeit (DSL, UMTS, LTE, HSDPA+) geschuldet. "In vielen Regionen Deutschlands war die Bandbreite für Desktop-Virtualisierung über das WAN nicht vorhanden. Dies wird sich in den nächsten Monaten und Jahren ändern", erklärt Dommershausen.
Rückenwind durch Consumerization & BYOD?
Mobile Endgeräte, ob Smartphone oder Tablets, mit unterschiedlichen Betriebssystemen, halten bereits heute Einzug in die Firmen-IT und werden die künftige Infrastruktur grundlegend prägen, darin sind sich alle Experten einig. Bei der Frage, ob dieser Trend der Virtualisierung generell und der Client- und Desktop-Virtualisierung speziell Vorschub leisten könnten, gehen die Meinungen auseinander.
Es gebe dazu noch zu wenig belastbare Erfahrungswerte, erklärt Schweitzer. Aktuell habe der Einsatz mobiler Geräte noch keinen Einfluss auf die Virtualisierungsstrategie, stimmt ihm Thomas Reichenberger von ACP zu und ist sich darin mit den meisten Befragten einig. Allerdings könnte sich das in den nächsten Jahren ändern.
"Desktop- und Anwendungsvirtualisierung ist oft der schnellste Weg, eine Unternehmensanwendung auf das jeweilige Endgerät zu bringen - ohne die Daten lokal vorhalten zu müssen", so Martin Drissner, Brandleader Virtualization Solutions / System-Integration bei Fritz & Macziol. "Zwar ist die Benutzerfreundlichkeit noch eingeschränkt, da die meisten Anwendungen noch nicht speziell dafür angepasst sind, aber genau das ist ja eine der Hauptanforderungen an ByoD-Modelle."
Goldbrunner sieht das ähnlich: Die Desktop-Virtualisierung ermöglicht es, dass jeder Mitarbeiter von überall aus auf seine gewohnte produktive Arbeitsumgebung zugreifen kann. Jedoch sind mit virtuellen Desktops Betriebssystem und Endgerät vollständig entkoppelt, sodass mobile Devices kein allzu großes Sicherheitsrisiko darstellen."
Die Client-Virtualisierung werde künftig auf jeden Fall ein Thema sein. Diese Einschätzung Sahms teilen viele Experten, aber nicht alle: "Cloud-basierte Anwendungen werden nach Abschluss des Normierungsprozesses immer mehr Möglichkeiten und Schnittstellen eröffnen, die eine Virtualisierung des Clients überflüssig machen", meint Gerald Hahn, Vorstandsvorsitzender bei der Softshell AG.
Inventur beim Endanwender
Laut einer Studie von Forrester Research vom Februar 2012 nutzen 52 Prozent aller "Information Worker" drei oder mehr Geräte, 60 Prozent setzen sie sowohl für den geschäftlichen als auch für den privaten Gebrauch ein - dazu gehören ein Drittel nicht-Microsoft-basierte Systeme sowie ein Viertel mobile Endgeräte.
Folgen für die Partner
Vertriebspartner müssen sich hier Spezialwissen aneignen, darin sind sich alle Channel-Beteiligten einig. Zudem wird sich ihre Rolle ändern: "Consumerization und ByoD-Programme bedeuten ganz konkret, dass Unternehmen möglicherweise keine großen Hardwareposten mehr abnehmen. Auch das Geschäft mit Softwarelizenzen steht im Cloud-Zeitalter unter Druck", mahnt Goldbrunner.
Es werde verstärkt darum gehen, Services zu entwickeln und anzubieten - in Form gehosteter Anwendungen, als Support oder auf andere Weise. Vertriebspartner sollten deshalb ihre Geschäftsmodelle kritisch überdenken. Auch Gerald Hahn schätzt, dass "selbst lokale virtualisierte Umgebungen anfangs mit Cloud-Services zusammen angeboten, später jedoch durch diese abgelöst werden. Das Stichwort der Zukunft lautet Services."
Auf Partner würden ein Wildwuchs an Hard- und Software und eine unüberschaubarer werdende Vielzahl unterschiedlichster User-Anforderungen und Wünsche zukommen, prognostiziert Lichers. Obendrein liefen Partner Gefahr, zu austauschbaren Brokern zu werden.
Wie groß diese Gefahr letztlich ist, hängt allerdings vom eigenen Geschäftsmodell des Systemhauses ab. (rb)