Desktop-Virtualisierung ist eines der Themen, mit denen sich IT-Manager derzeit intensiv beschäftigen. Das gilt vor allem für Arbeitsplatzumgebungen, die in Form einer Virtual Desktop Infrastructure (VDI) bereitgestellt werden. Laut einer Studie einer unabhängigen Marktanalyse- und Beratungsgesellschaft Pierrre Audoin Consulting (PAC) im Auftrag von Pironet NDH Studie, wollen Unternehmen langfristig auf eine Desktop-Virtualisierungs-Lösung einsetzen. Damit sollen herkömmliche PC-Arbeitsplätze durch eine Virtual-Desktop-Infrastructure-Architektur ersetzt werden.
Bei diesem Ansatz, der auch unter der Bezeichnung "Hosted Desktop Virtualization" oder "Centralized Virtual Desktop" bekannt ist, lagern virtualisierte Desktops, inklusive Betriebssystem, Daten und Benutzereinstellungen, auf Servern und Storages-Systemen in einem Rechenzentrum. Über einen Connection Broker werden die individuellen Arbeitsbereiche zu den Client-Systemen übermittelt. Dies können traditionelle Client-Rechner wie Windows-PC sein, aber auch Thin Clients oder mobile Geräte wie Notebooks.
Anforderungen einer VDI an Server, Netzwerk und Storage
Damit eine VDI funktioniert, müssen Server und Storage-Systeme allerdings bestimmte Mindestkriterien erfüllen. Laut Pano Logic, einem Anbieter von Systemen und Lösungen für den Aufbau von VDIs, verkraftet jeder Rechenkern (Core) eines Serverprozessors etwa drei bis sieben Desktop Virtual Machines (DVM). Wie viele es genau sind, hängt von der Art der Workloads ab. Bei mittleren Workloads sind vier bis fünf DVMs pro Core akzeptabel, bei Workloads mit höheren Anforderungen zwischen sechs und sieben pro Core.
Die Festplatten sollten 20 bis 50 IOPS (I/O-Operationen pro Sekunde) pro DVM und zudem eine Lese-/Schreibzugriffszeit von maximal 20 ms unterstützen. Laut Pano Logic ist eine SAS-RAID-Storage-Konfiguration mit Harddisks mit 15.000 Umdrehungen pro Minute für vier bis sechs DVMs ausreichend. Auch hier gilt, dass Festplatten mit niedrigeren Leistungswerten für weniger anspruchsvolle Workloads vorgesehen werden können. Die Storage-Umgebung kann aus Direct-Attached-Speichersystemen (DAS) oder SANs (Storage Area Networks) auf Basis von iSCSI oder Fibre Channel bestehen. Wichtig ist, dass der Nutzer die Leistungsfähigkeit der Speicherumgebung anhand von "echten" DVM-Workloads testet, ehe die VDI in Betrieb geht. Dabei sollten auch SSDs als schneller Storage-Speicher in Erwägung gezogen werden.
Genügend RAM im Server
Ein potenzieller Flaschenhals ist der Arbeitsspeicher der Server. Sparmaßnahmen an dieser Stelle führen unmittelbar zu einer schlechten "User Experience". Das heißt, die virtualisierten Desktops reagieren zögerlich, so dass mit Sicherheit Klagen der Nutzer vorprogrammiert sind. Als Faustregel gilt, dass pro DVM zwischen 768 MByte und 2 GByte RAM erforderlich sind. Ist zu wenig Arbeitsspeicher vorhanden, nehmen bei Windows-Systemen das Paging und damit die Überlastung der Festplatten-Subsysteme überhand und die Gesamtperformance des System sinkt spürbar..
Etwa 70 bis 80 Prozent des Arbeitsspeichers einer DVM sollten aus physischem RAM (Speicherriegeln im Server) bestehen. Den Rest stellt der Hypervisor zur Verfügung, indem er den einzelnen DVMs entsprechenden deren tatsächlicher Auslastung SWAP-Memory bereitstellt.
Leichte und schwere Workloads
Wie die VDI-Systemumgebung im Detail aussehen sollte, hängt, wie bereits angesprochen, nicht nur von der Zahl der Workloads ab, sondern auch von deren Lastprofil. Der IT-Fachmann sollte daher im Vorfeld prüfen, welche Arten von Workloads im Unternehmen oder in einzelnen Abteilungen dominieren:
Leichte Workloads: Sie fallen dort an, wo vorzugsweise leichte Büroarbeiten wie Buchhaltung und die Korrespondenz mit Kunden und Mitarbeitern im Vordergrund steht. In der Regel nutzen die Mitarbeiter ein oder bestenfalls zwei Anwendungen gleichzeitig, etwa einen Browser oder ein E-Mail-Programm sowie zusätzlich eine Buchhaltungssoftware. Das heißt, pro DVM sind zwischen 768 MByte (bei Windows XP) und 1 MByte Arbeitsspeicher (Windows 7) erforderlich. Pro User fallen bei den Speichersystemen höchstens 20 bis 30 IOPS an. Jedem Server-CPU-Core können etwa sieben DVMs mit leichten Workloads zugewiesen werden.
Mittelschwere Workloads: Sie fallen in Büroumgebungen an, in denen die Mitarbeiter generell mehrere Applikationen parallel nutzen, vor allem Office-Anwendungen wie Microsoft Office oder Lotus, außerdem CRM- oder ERP-Programme, E-Mail und Browser. Der RAM-Bedarf pro DVM beträgt in diesem Fall 1 GByte (Windows XP) bis 1,25 GByte (Windows 7) pro DVM. Die Zahl der DVMs pro CPU-Kern reduziert sich somit auf vier bis fünf. Die Storage-Umgebung muss jedem User etwa 30 bis 40 IOPS zur Verfügung stellen.
Hochlast-Workloads: Sie sind in Bereichen wie CAD/CAM, Softwareentwicklung und Grafikdesign zu finden. Mitarbeiter in solchen Abteilungen arbeiten in der Regel mit Anwendungen, die hohe Anforderungen an die Rechnerhardware stellen. Pro Desktop Virtual Machine sind deshalb mindestens 2 GByte Arbeitsspeicher vorzusehen. Ein CPU-Kern darf mit maximal drei bis vier aktiven DVMs belastet werden, eher weniger. Die Speichersysteme beziehungsweise das SAN sollten pro Nutzer 50 IOPS oder mehr vorsehen.
Speichernetz: ja oder nein?
In einer VDI-Umgebung ist es nicht unbedingt notwendig, ein Shared-Storage-Konzept auf Basis eines Storage Area Networks (SAN) zu implementieren. Vor allem bei kleineren Installationen mit etwa 25 bis 50 Usern reicht meist ein RAID-Festplatten-Array im Server aus. Der Vorteil sind die niedrigeren Kosten und die geringere Komplexität. Der Nachteil: Ist ein Server nicht verfügbar, etwa während eines Wartungsintervalls oder wegen eines Defekts, gilt das auch für die virtualisierten Desktops.
In kleineren Unternehmen mit wenigen DVMs mag es zu verschmerzen sein, wenn die Arbeitsplatzumgebungen einige Minuten oder eine halbe Stunde lang nicht bereitstehen. Ab 50 Arbeitsplätzen wird es jedoch teuer, wenn Mitarbeiter keinen Zugang zu Anwendungen und Daten haben oder warten müssen, bis ihnen ein Administrator über ein anderes Serversystem einen Desktop zugewiesen hat.
Ein Shared Storage auf Basis eines SAN- oder NAS-Filers (Network Attached Storage) bietet dagegen eine höhere Verfügbarkeit, ist aber auch teurer und stellt höhere Anforderungen an das System- und Netzwerkmanagement. Fällt ein Server aus, wird in diesem Fall eine DVM von einem anderen System im Cluster bereitgestellt. Die Storage-Systeme in einem SAN-Verbund bieten vor allem für größere VDI-Umgebungen weitere Vorteile. Sie reduzieren beispielsweise mithilfe von Deduplizierung und Datenkompression den Umfang einer typischen Windows-7-DVM von etwa 30 GByte auf bis zu 1,5 GByte. Das bedeutet eine niedrigere Belastung des Netzwerks und eine bessere Auslastung der Speicherkapazität.
Diskless VDI: virtualisierte Desktops im Server-RAM
Ein Kernproblem einer VDI sind die hohen Storage-Aufwendungen. Pro Desktop an die 20 bis 30 GByte Speicherplatz vorzuhalten ist trotz sinkender Preise für Festplatten aufwendig. Etwa 50 bis 70 Prozent der Aufwendungen eines VDI-Projekts entfallen daher auf Storage-Kosten.
Einen interessanten Ansatz hat Atlantis Computing entwickelt. Die Virtual Appliance Atlantis ILIO reduziert den gesamten NTFS-Datenverkehr und damit die DVMs um bis zu 90 Prozent. Damit ist es möglich, die Virtual Machines im RAM eines Servers zu speichern statt auf externen Storage-Medien. Das verringert die Zugriffszeiten, weil die virtualisierten Desktops quasi in einem Solid State Drive vorgehalten werden. ILIO lässt sich auch in Verbindung mit Solid State Drives (SSDs) und konventionellen Festplatten einsetzen. Die virtuelle Appliance reduziert die Kosten pro IOPS von rund 29 Dollar bei blockorientierter Speicherung auf 1,80 Dollar bei Einsatz des Verfahrens in einem SAN.
Cisco setzt ILIO bei seinen UCS-Server-Systemen ein, die über die Extended-Memory-Technik verfügen. Dies ist ein Verfahren, das mehrere physische DIMM-Riegel wie einen logischen RAM-Baustein erschienen lässt, also beispielsweis vier 8-GByte-Riegel wie ein 32-GByte-Modul.
Die Systeme der Reihe UCS B250 M2 können mit bis zu 384 GByte DDR-3-RAM bestückt werden - Tests von Cisco mit seinen UCS-Servern haben folgende Werte ergeben:
• Virtual Desktops pro Server: 120,
• RAM für den Hypervisor: 2 GByte,
• RAM pro Desktop: 1, 5 GByte,
• RAM-Disk für Virtual-Desktop-Clone-Storage-Bereich: 150 GByte,
• Arbeitsspeicher und CPUs für Atlantis ILIO: 6 GByte RAM und eine CPU,
• CPUs für alle 120 Virtual Desktops: 11.
Ähnliche Verfahren wie Atlantis haben kleinere Anbieter wie Virsto, aber auch die "großen" Storage-Spezialisten wie Netapp und EMC entwickelt. Auch diese Hersteller setzen auf Storage-Virtualisierung, um den Speicherbedarf von VDIs zu begrenzen und die Auslastung der Speicherkapazitäten zu optimieren.
Beispielkonfigurationen für kleinere VDI-Umgebungen
Auf Basis dieser Grundannahmen lassen sich nun unterschiedliche Server- und Storage-Konfigurationen für eine Virtual Desktop Infrastructure zusammenstellen:
Variante 1 für bis zu 30 User: Quadcore-Server und bis zu sechs SAS-Festplatten: Am einfachsten aufzusetzen und zu verwalten ist eine VDI-Umgebung für 15 bis 30 VDI-User. Als Basis dient ein Server mit einer Quadcore-CPU und beispielsweise VMwares vSphere Hypervisor (ESXi). Natürlich können auch die Pendants von Citrix (Xen) und Microsoft (Hyper-V) verwendet werden. Der Server sollte in diesem Fall mit 32 bis 48 GByte RAM ausgestattet sein. Als Storage-Umgebung genügt ein RAID-System mit fünf bis sechs SAS-Festplatten (Serial-Attached SCSI) mit jeweils10.000 U/min.
Variante 2 für 50 bis 80 User: Zwei Quadcore-Server und bis zu acht SAS-Festplatten: Etwas komplexer ist eine Pooled-VDI-Umgebung. Pooled bedeutet, dass der User seine Benutzerumgebung aus einer vorgegebenen Zahl vorhandener Betriebssysteme und Applikationen zusammenstellen kann. Das Installieren eigener Anwendungen ist nicht möglich. Dafür belegen Pooled VDIs weniger Speicherplatz und sind einfacher zu verwalten.
Für eine solche Umgebung mit 50 bis 80 Usern sind zwei Quad-Core-Server mit zwei Prozessoren und jeweils mindestens 48 GByte RAM zu empfehlen. Die Konfiguration ist wegen des Pooled-Ansatzes relativ einfach. Die Storage-Umgebung könnte aus einem RAID-System im Server mit sieben bis acht SAS-Laufwerken (15.000 U/min) bestehen.
Variante 3 für 125 bis 200 User: Fünf Server und bis zu acht SAS-Platten: Wie die bereits vorgestellten Beispiele kommt auch die vorliegende Variante mit lokalem Festplattenspeicher aus, sprich einer RAID-Konfiguration mit sieben bis acht SAS-Festplatten mit 15.000 Umdrehungen pro Minute. In diesem Fall bietet es sich an, fünf Serversysteme mit zwei Quad- oder Hexacore-Prozessoren einzusetzen. Sie sollten mit 48 bis 72 GByte RAM ausgestattet sein. Diese Konfiguration eignet sich ebenfalls für Pooled VDI-Umgebungen.
Variante 4 für 60 bis 90 User: Zwei Server und ein SAN: Für Anwender, die auf die Hochverfügbarkeit einer VDI-Umgebung Wert legen, bietet sich der Einsatz eines iSCSI- oder Fibre-Channel-SAN an. Für kleinere Umgebungen mit bis zu 90 Usern reichen zwei Server mit jeweils zwei Vier- oder Sechs-Kern-Prozessoren und 48 bis 72 GByte RAM aus. Um die Performance zu erhöhen, können sie mit zwei Festplatten im RAID-1-Modus bestückt werden.
Das SAN sollte aus einem Speichersystem mit etwa 18 SAS-Laufwerken (15.000 U/min) bestehen. Solche Laufwerke sind allerdings deutlich teurer als SATA-Harddisks. Eine SAS-Platte der Reihe Cheetah 15k.7 von Seagate mit 600 GByte Kapazität kostet beispielsweise ab 450 Euro (brutto), eine SATA-300-Serverfestplatte mit 1 TByte desselben Herstellers dagegen rund 150 Euro weniger. Ebenfalls anzuraten ist bei einem SAN der Einsatz eines Speichersystems mit redundanten Netzteilen und Controllern.
Variante 5 für 150 bis rund 230 User: Fünf Server und zwei Speichernetze: Für mittelständische Unternehmen mit bis zu 230 VDI-User eignet sich eine Infrastruktur mit fünf Dual-Socket-Servern (48 bis 72 GByte RAM) und einer RAID-1-Festplattenkonfiguration. Hinzu kommen zwei SANs mit jeweils 18 SAS-Laufwerken und redundant ausgelegten Komponenten wie Controllern, Netzteilen und Lüftern.
Die Storage Area Networks sollten mit Parity- und Spare-Drives (Festplatten) bestückt sein. Als Alternative zum Ansatz mit zwei separaten SANS bietet es sich an, ein Speichersystem mit 36 SAS-Laufwerken logisch in zwei SANs aufzuteilen.
Netzwerk und Speicherumgebung optimieren
Wichtig ist, in einer VDI die Latenzzeiten so niedrig wie möglich zu halten. Speziell Multimedia-Anwendungen reagieren allergisch auf Latency-Wert von mehr 100 ms. Um das zu erreichen, müssen die Storage-Subsysteme entsprechend leistungsfähig sein. Sie sind in vielen VDI-Umgebungen ein Schwachpunkt, der die Performance beeinträchtigt. Ein weiterer Tipp: Die RAID-Gruppen sollten sechs bis zwölf Laufwerke umfassen. Zudem ist es ratsam, pro LUN (Logical Unit Number) nicht mehr als 32 Desktop Virtual Machines vorzuhalten.
Optimal für den Zugriff auf eine VDI ist ein Local Area Network (LAN). In einer solchen Umgebung ist in der Regel ausreichend Bandbreite verfügbar. Allerdings ist es auch möglich, virtualisierte Desktops über WAN-Strecken bereitzustellen, etwa in Filialen. Allerdings müssen in diesem Fall die Paketverlustrate und die Roundtrip-Zeiten der Pakete optimiert werden. Die Packet Loss Rate sollte im Idealfall weniger als 0,5 Prozent betragen. Bei den Roundtrip-Zeiten sind etwa 10 ms akzeptabel.
Solche Werte lassen sich meist nur dann erzielen, wenn an beiden Enden der Weitverkehrsstrecke WAN-Optimierungssysteme eingesetzt werden. Bekannte Hersteller solcher Systeme sind unter anderem Blue Coat Systems, Silver Peak Systems und Riverbed. Ein WAN-Optimizer verwendet mehrere Techniken, um den Datenverkehr zu optimieren. Dazu zählen das Deduplizieren von mehrfach vorhandenen Daten sowie Forward Error Correction und proprietäre Verfahren, um sicherzustellen, dass die Datenpakete in der richten Reihenfolge beim Adressaten ankommen. Hinzu kommt das Caching von Daten. Der Nachteil solcher WAN-Optimierungssysteme: Sie kosten mehrere tausend Euro. Allerdings stellen Anbieter wie etwa Silver Peak Systems oder Riverbed für kleine Unternehmen teilweise kostenlose Versionen ihrer Virtual WAN Appliances zur Verfügung.
Fazit
Eine Virtual Desktop Infrastructure ist ein probates, wenn auch komplexes Verfahren, um "Fat Clients" beziehungsweise herkömmliche Desktop-Rechner loszuwerden und eine sichere und leistungsfähige Desktop-Infrastruktur aufzubauen. Optimierungsbedarf besteht allerdings speziell im Bereich Storage und bei den damit verbundenen Kosten. Diese sind immer noch recht hoch, auch wenn sich eine VDI im Vergleich zu einer klassischen PC-Client-Umgebung dennoch rechnet.
Der VDI-Ansatz muss sich allerdings neuen Konkurrenten stellen. Gerade für einen Mittelständler könnten Cloud-basierte Konzepte wie Desktop as a Service interessant werden. In diesem Fall übernimmt es ein Cloud-Service-Provider, die Desktop-Umgebungen einzurichten und den Usern zur Verfügung zu stellen. Allerdings gibt es bislang nur wenige solcher Angebote. (hal)
Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation Tecchannel.