OCZ-Manager

"HDDs haben die Virtualisierung ausgebremst"

19.06.2012
Weshalb es bei der Virtualisierung zu Performance-Engpässen kommen kann, und wie sich diese beheben lassen, erläutern Georg Dietsch, Director Enterprise Sales EMEA bei OCZ, und Allon Cohen, VP of Marketing and Product Management, OCZ-Sanrad, im Interview mit ChannelPartner. Unter welchen Umständen der Einzug mobiler Endgeräte und der Trend zu ByoD (Bring your own Device) der Dekstop- und Client-Virtualisierung neuen Schwung verleihen könnte, lotet Georg Dietsch ebenfalls aus.
Allon Cohen, VP Marketing & Product Management bei OCZ-Sanrad
Foto:

Weshalb es bei der Virtualisierung zu Performance-Engpässen kommen kann, und wie sich diese beheben lassen, erläutern Georg Dietsch, Director Enterprise Sales EMEA bei OCZ, und Allon Cohen, VP Marketing & Product Management bei OCZ-Sanrad, im Interview mit ChannelPartner. Außerdem geht Georg Dietsch der Frage nach, unter welchen Umständen der Einzug mobiler Endgeräte und der Trend zu ByoD (Bring your own Device) der Desktop- und Client-Virtualisierung neuen Schwung verleihen könnten.
CP: Virtualisierung sollte es Unternehmen ermöglichen, den Administrations- und Kostenaufwand für den Betrieb und Ausbau ihrer IT z u senken. Dennoch erforderte der Umstieg auf diese Technologie oft erst einmal hohe Investitionen. Weshalb?

Allon Cohen: Die Server-Virtualisierung verbessert nicht nur die Auslastung der Server-CPU- und Speicher-Ressourcen, sondern vereinfacht zudem die Bereitstellung, die Hochverfügbarkeit und die Verwaltung von Server-Workloads. Die mit der Virtualisierung verbundene Partitionierung der Server-Ressourcen hat den Betrieb von Rechenzentren grundlegend verändert, indem sie sowohl die Ausgaben für längerfristige Anlagegüter (CAPEX, Capital Expenditures), als auch die Ausgaben für den laufenden Betrieb (OPEX, (Operational Expenditure) Bilanz verbessert hat.
Während allerdings sehr schnell Server-CPU und RAM-Speicher entwickelt wurden, die virtualisierte Server-Umgebungen und die damit verbundenen höheren Workloads unterstützen, wurde sehr bald offensichtlich, dass die Entwicklung bei den HDDs (Hard Disk Drives) hier hinterher hinkte.

CP: Weshalb wirkte sich das so nachteilig für die Virtualisierungs-Bilanz aus?
Cohen: Als immer mehr virtuelle Server im Rechenzentrum betrieben wurden, konnten die HDDs im SAN die Server-Workloads nicht mehr bewältigen. Da viele Applikationen miteinander verknüpft sind, wurden ihre Storage-Zugriffe durch den Virtualsierungs-Layer quasi "verwirbelt", was dazu führte, dass der Disk-Zugriff im äußersten Random-Bereich möglich war, es führte zum "I/O Blender Effekt". Aus diesem Grund wurde die Server-Virtualisierung ein zentrales Problem für HDDs, da die Performance-Differenzen zwischen Server und HDD offensichtlich wurden.
IT-Leiter hatten auf die Server-Virtualisierung gesetzt, um Kosten im Rechenzentrum zu senken. Jetzt wurden ihre Anstrengungen vereitelt, weil sich die Virtualisierung nachteilig auf die HDD-Speicher auswirkte und somit zusätzliche Ausgaben für HDD SANs erforderlich wurden. Damit wurde HDD zum Hemmschuh der Virtualisierung.

CP: Wie lassen sich diese Probleme Ihrer Meinung nach umgehen?

Cohen: Server Side Flash zusammen mit Storage-Virtualisierung und Caching-Technologie ermöglicht seit kurzem einen Ausweg aus den beschriebenen Storage-Problemen in virtualisierten Umgebungen. Flash-Storage bietet die optimale Kombination aus Hard- und Software, um den Anforderungen des Storage-Zugriffs in virtualisierten Umgebungen gerecht zu werden. Denn Flash-Speicher haben, im Gegensatz zu HDD Storage, keine beweglichen mechanischen Teile. Sie können Daten-Zugriffe im Random-Bereich mühelos abarbeiten.
Eine einzige, PCIe-Host-basierte Flash-SSD ist imstande, eine Random-IOPS-Performance (Input/Output Operations Per Second) für die virtuellen Maschinen (VMs) bereitzustellen, wie ein großes SAN-Array mit Tausenden HDDs.

CP: Und wo steckt dann der Kostenvorteil ganz konkret?

Cohen: Um auch kostenseitig die Vorteile zu nutzen, ist es wichtig sicherzustellen, dass der Flash-Speicher von der virtuellen Maschine genutzt wird. Dazu eignet sich der Einsatz einer Flash-Virtualisierungs- und Caching-Software wie beispielsweise OCZ VXL, die dafür sorgt, dass der Flash-Speicher wie eine weitere virtuelle Ressource behandelt wird.
Außerdem ermöglicht es der Einsatz von VXL-Software in einer zentralen virtuellen Appliance, den Hypervisor zu nutzen, um den Flash-Speicher dynamisch und bedarfsgerecht zuzuteilen, sowohl innerhalb als auch außerhalb der physischen Server. Ich empfehle Vertriebspartnern die Kombination von Storage-Virtualisierung und PCIe Flash Caching, und den Einsatz von Software, die imstande ist, unmittelbar und zentral mit dem Hypervisor zu arbeiten, statt lokal mit jeder einzelnen virtuellen Maschine. Denn damit lassen sich die Flash-Stärken nutzen ohne auf die mit der Virtualisierung verbundenen Vorteile verzichten zu müssen.

CP: Wie begegneten Kunden diesem HDD-Problem, solange kein Flash-Storage genutzt wurde?

Cohen: IT-Leiter haben einfach die Zahl der VMs pro Host-System reduziert. Manchmal haben sie auch schlicht davon Abstand genommen, geschäftskritische Systeme oder Applikationen, wie beispielsweise Datenbanken oder E-Mail-Server, in der virtualisierten Umgebung zu betreiben, weil sie befürchteten, dass die Datenzugriffs-Pattern durch den I/O-Blending Effekt gestört werden könnten.
In diesen Fällen wurden die Applikationen häufig in isolierten, nicht virtualisierten Servern betrieben, was die Kosten für die Infrastruktur und die Verwaltung nach oben trieb.

CP: Weshalb?
Cohen: DieIT-Abteilungen waren gezwungen, Hunderte, wenn nicht gar Tausende HDDS zu kaufen, einfach nur, um so die IOPS-Anforderungen der virtualisierten Server zu erfüllen. Entsprechend wuchs jedes SAN mit seinen Hunderten HDDs, was wiederum die Ausgaben für Energie und Kühlung in die Höhe trieb und somit auch die Gesamtbetriebskosten erhöhte.
Obendrein sind HDDs aufgrund ihrer mechanischen Funktionsweise auch fehleranfälliger, weshalb Hochverfügbarkeits-Modelle sowohl den Ausfall einzelner HDDs als auch des kompletten Arrays berücksichtigen mussten - was zum einen die Zahl der erforderlichen HDDs erneut in die Höhe trieb und zum anderen den Einsatz einer ausgereiften Software für den SAN-Layer erforderlich machte. Das war eine wesentliche Ursache, weshalb die Vorteile der Server-Virtualisierung oft nicht zum Tragen kamen.

CP: Wo gibt es weitere "Flaschenhälse" bei der Bereitstellung virtueller Server, Desktops, Applikationen und Dienste?

Georg Dietsch, Director Enterprise Sales EMEA bei OCZ
Foto:

Georg Dietsch: Virtuelle Umgebungen konsolidieren viele Workloads an einer Stelle. An dieser Stelle entsteht aber die Last aller Workloads auf dem Storage. Häufig sind die Betriebsprozesse noch nicht für die Virtualisierung optimiert sondern auf die eher langsame Provisionierung physikalischer Workloads ausgerichtet. PCIe-Speicher optimiert hier die Prozesse gegenüber herkömmlicher Storage SAS/FC-basierend, da es direkt auf dem Bus ansetzt. Ein schneller und sicherer Storage ist so neben einem intelligenten Storage-Design die Voraussetzung für eine gut funktionierende virtuelle Umgebung. Der Einsatz von schnellen Speichern (SSD) auf PCIe mit entsprechender VXL S/W ist unabdingbar. Herkömmliche SAS/FC Schnittstellen erweisen sich oft als Flaschenhals.

CP: Wie lässt sich die Leistungsfähigkeit virtueller Maschinen - beispielsweise, indem die Zahl der virtuellen Maschinen auf einem physischen Server erhöht wird - durch eine geeignete Speichertechnologie verbessern?

Dietsch: Es sollte für eine ausgewogene Verteilung von Workloads auf LUNs (Logical Unit Number) oder NFS-Shares (Network File System) gesorgt werden. Die Arbeitslast auf einer LUN/einem Share sollte konstant überwacht werden, und ggf. VMs von einer hoch belasteten LUN auf einer mit weniger Betrieb verschoben werden. Dies ist ohne Unterbrechung des laufenden Betriebes möglich (Storage vMotion) und lässt sich z.B. bei VMware auch automatisieren. Darüber hinaus sollte die Speicherhierarchie durch den Einsatz von PCIe, d.h. durch schnelle SSDs/Karten direkt am Bus im Tier Level 0 und 1 gegenüber früheren SAS/FC Schnittstellen basierenden rotierenden Magnet- Speichern optimiert werden.

CP: Was wird bei der Absicherung virtueller Umgebungen häufig zu wenig beachtet?

Dietsch: Eine virtuelle Infrastruktur muss genauso abgesichert werden wie eine physikalische Umgebung (Firewalls, Access Policies, Viren-Scanner). Allerdings gibt es in der virtuellen Umgebung einige intelligentere Lösungen - z.B. Virenscanner, die nicht im Betriebssystem-Kontext einer VM, sondern außerhalb der VM laufen.

CP: Wo erkennen Sie weitere Trends und Probleme in den Bereichen Server-, Storage-, Desktop- & User-Virtualisierung?

Dietsch: Virtualisierung ist eine Grundlage für moderne Cloud-Architekturen im ITaaS-Umfeld. Da hier Resourcen-Sharing zum Einsatz kommt, sind die Anforderungen ans Netzwerk und an Storage hoch und müssen sorgfältig geplant werden. Um alle Features moderner Hypervisoren auszunutzen, sollten entsprechende Massenspeicherlösungen verwendet werden. Mit diesen ist es möglich, die Verwendung von Service-Klassen zu automatisieren: das Storage-Device informiert den Hypervisor automatisch über seine Leistungsklassen, so dass dieser entsprechend vorgegebener Regelwerke die Provisionierung von Workloads (VMs) automatisch nach vereinbarten SLAs vornehmen kann.

Storage-Virtualisierung
Tiering und SSD
Storage Tiering mit mindestens drei Storage-Tiers kann die Speicherkosten erheblich senken.
Faustregel: Preisdifferenz zwischen den Tiers liegt bei 2:1. Durch den Einsatz von Flash oder Solid State Drivers (SSDs) kann dies zudem weiter erhöht werden.
Thin Provisioning
Thin Provisioning über gemeinsam genutzte Speicher-Pools ermöglicht das schrittweise Aufstocken von Speicherkapazitäten durch die Zuweisung von Datenblöcken nach Bedarf (on Demand). Dadurch wird kaum mehr Speicherplatz ungenutzt gelassen, was bei herkömmlichen Methoden der Speicherzuweisung oft der Fall ist.
Tape
Veraltete Daten müssen nicht mehr so oft abgefragt werden und können deswegen auf Speicherbändern (Tapes) abgelegt werden. Dabei betragen die damit verbundenen Kosten weniger als ein Zehntel der Kosten für die Plattenspeicherung (ca. 0,02 USD/GB) und verbrauchen zudem nicht einmal ein Hundertstel an Energiekosten für Stromversorgung und Kühlung
Snapshots
Mit Hilfe von Snapshot-Kopien für die Datensicherung, den Datenschutz und das Testen lässt sich der Bedarf an Speicherkapazität insgesamt um bis zu 80 Prozent reduzieren. Das kann insbesondere beim Testen mit Live-Daten sehr nützlich sein, da nicht mehrere Datenbanken in Produktivgröße für Testzwecke erstellt werden müssen.
Neue Storage Management Lösungen
Mit zunehmender Speicherkapazität steigt proportional auch die Zahl der Administratoren an. Die neueren Speicherplattformen bieten automatische Management-Fähigkeiten, wodurch dieses Verhältnis verbessert werden kann.
Mainframe als Datenbank-Server
Mainframe-Server setzen auf einer gemeinsam genutzten (Shared) Storage-Architektur auf. Damit muss von jeder Datenbank nur eine einzige Kopie vorgehalten werden, was den Kapazitätsbedarfs insgesamt um bis zu 80 Prozent senken kann.
Leasing/Kürzere Refresh-Zyklen
In den letzten fünf Jahren hat sich die Dichte um das Zweieinhalbfache verbessert, und der Strombedarf konnte um über 90 Prozent gesenkt werden. Kürzere Refresh-Zyklen bergen deshalb in vieler Hinsicht Kostensenkungspotenziale.
Golden Records
Vermeiden Sie bei Computing-Umgebungen, bei dem eine Shared-Nothing Storage-Architektur zum Einsatz kommt, zu viele Datenbank-Kopien.
Deduplizierung
Durch Deduplizierung lassen sich redundante Daten vermeiden; und bei entsprechender Nutzung in Bereichen, wo Deduplizierung erfolgversprechend angewandt werden kann, lassen sich Einsparungen im Verhältnis bis zu 22:1 erzielen. Hierfür gibt es vier verschiedene Methoden: Inline, Post-Process, Quell- und Ziel-Deduplizierung.
Clouds und Pools
Mit Hilfe von Cloud Storage kann der vor Ort erforderliche Speicherbedarf reduziert werden. Insbesondere sinnvoll ist das für Entwicklungs- und Test-Systeme sowie für Backups. Beim Einsatz von Storage-Pools kann Speicherkapazität zudem von mehreren Anwendungen gemeinsam genutzt werden.
Kompression
Daten und Aufzeichnungen, die aufgrund von gesetzlichen Vorschriften aufbewahrt werden müssen, sollten ausschließlich mit Hilfe von verlustfreien Techniken komprimiert werden; dazu zählen unter anderem ZIP-Dateien ebenso wie PNG und GIF Images.
Besseres Content Management
Vorhandener Speicherplatz muss besser genutzt bzw. verwaltet werden. Dadurch kann vermieden werden, dass verwaister oder überbeanspruchter Speicherplatz entsteht.

CP: Wo liegen die Knackpunkte auf Seiten der Endkunden wie auf Seiten der Vertriebspartner?

Dietsch: Knackpunkte sind vor allem die Reduktion von CAPEX durch Konsolidierung von vielen Workloads auf wenigen physikalischen Servern; die Reduktion von OPEX durch einfaches und automatisierbares Deployment von Workloads, ein einfach erreichbarer Standardisierungsgrad, Höhere Verfügbarkeit, beispielsweise durch vMotion, Clusterung, DRM, sowie die einfache Umsetzung von Standardprozessen (z.B. ITIL) und intelligente Management-Tools.

CP: Welche Kriterien sind Ihrer Erfahrung nach für Endkunden bei der Wahl der Virtualisierungs-Plattform entscheidend?

Dietsch: Zum einen der Preis: Es gibt zwar von allen kommerziellen Herstellern kostenlose Versionen ihrer jeweiligen Hypervisor - der Preis steigt jedoch je nach lizensierten Zusatz- und Management-Features. Weitere wesentliche Kriterien sind Umfang der Features, Wartbarkeit, Betriebssicherheit und der Konfigurationsaufwand. Die Frage, ob die Hypervisoren auch quelloffen sind, spielt in den meisten Fällen eher eine untergeordnete Rolle.

CP: Welche Rolle spielt dabei die Überlegung, ob und inwiefern der Plattformanbieter Cloud-basierte Dienste und Anwendungen integrieren kann?

Dietsch: Das hängt sicher von der Anwendung ab. Virtualisierung ist zwar eine Kernkomponente von Cloud-Services, aber nicht jeder Kunde mag mit dem Begriff "Cloud" etwas anfangen

CP: Erkennen Sie eine Tendenz, dass Anwender die Hypervisor-Plattform wechseln?

Dietsch: Eher Nein. Es mag Einzelfälle geben.

CP: Virtualisierungs-Anbieter sagten schon 2009: Das wird das große Jahr der Dekstop-Virtualisierung". Bislang aber hat sich die Technologie noch nicht auf breiter Basis durchgesetzt. Weshalb?

Dietsch: Die Firmen, die die Technologien eingeführt haben, berichten im positiven Sinne recht enthusiastisch von ihren Erfahrungen. Nach meiner persönlichen Meinung gibt es folgende kritische Punkte:

  1. Spieltrieb: "Wie!?! Ich soll meinen schönen, mich im Winter wärmenden Computer abgeben gegen so einen windigen Thin-Client, der remote gemanagt wird, und auf dem ich nicht mal Spiele installieren und Websurfen kann, ohne dass es jemand mitbekommt? No way - nicht mit mir!"

  2. Gerüchte und Gefühle: "Ich glaube irgendwie nicht, dass das alles so funktioniert! Ich habe neulich mal von so einem Fall gehört, da ist in Arabien ein Kamel über eine Datenleitung gestolpert, und prompt konnten die Kameltreiber nicht mehr auf ihre Remote-Desktops zugreifen!"

  3. Einführung Aufwändig: Die Anforderungen an die Infrastruktur sind durchaus gewaltig, und die Einführung der Technologie erfordert vorab eine Menge Hirnschmalz. Eine virtuelle Desktop-Umgebung installiert man nicht mal so eben kurz "Weiter->Weiter->Weiter->Fertig".

  4. Fürstentümer werden verteidigt: In den meisten Firmen existieren Prozesse zur Handhabung von PCs und Laptops, die zwar nicht immer gut, aber in den meisten Fällen eben seit vielen Jahren etabliert sind.

  5. Kostenvorteile nicht sofort offensichtlich: Die Einführung einer VDI ist mit sehr großen Anfangsinvestitionen verbunden. Cost-Savings werden im OPEX-Bereich erzielt und lassen sich am Anfang schwer abschätzen. Sie sind nicht so offensichtlich wie im reinen Virtualisierungsumfeld. Viele Unternehmen scheuen diese Anfangsinvestitionen.

CP: Inwiefern könnte der Einzug mobiler Endgeräte in die Unternehmen (Consumerization, BYOD) der Desktop- und Client-Virtualisierung künftig einen neuen Schwung verleihen?

Dietsch: Alle diese Themen sind noch im Anfangsstadium. Es lassen sich aber schon jetzt klare Trends erkennen: Es fällt auf, dass in vielen Meetings keine Laptops mehr das Bild dominieren, sondern kleine, trendige Tablet-Computer auf iOS oder Android-Basis. Selbst einem modernen Laptop haftet bereits etwas "Old-School"-Mäßiges an. Betrachtet man die Generation der Jugendlichen oder jungen Erwachsenen (Studenten), wird sich das eher verstärken.
BYOD wird in immer mehr Unternehmen ein Thema (ein privates Device behandelt man in der Regel pfleglicher als ein vom Unternehmen gestelltes). Diese Devices lassen sich sehr gut mit dem Cloud/VDI-Gedanken verbinden. Ich war neulich auf eine Meeting, in dem jemand sei iPad an den Beamer angeschlossen hatte, und eine PowerPoint-Präsentation zeigte. PowerPoint lief dabei auf einer VM im Rechenzentrum, deren Desktop auf das iPad gestreamt wurde. Vom Look-and-Feel verhielt sich das Ganze so, als würde das iPad die Präsentation abspielen. PowerPoint auf iPad gibt es aber nicht!

Desktop-Virtualisierung
Herausforderungen bei Deskop-Virtualisierungs-Projekten, Quelle: Matrix42
Gründe für Deskop Virtualisierung, Quelle: Matrix42
Umfrage zu Desktop Virtualisierung - Wer pant für wann? Quelle: Matrix 42
Umfrage zu Desktop-Virtualisierung - Größe der befragten Firmen; Quelle: Matrix42

CP: Wie virulent ist das Problem des "Wildwuchses" virtueller Maschinen und wie lässt sich dieser "Wildwuchs" in den Griff bekommen?

Dietsch: Eine virtuelle Umgebung lässt sich in der Regel recht einfach messen. Kenngrößen für Wildwuchs sind z.B. VMs, die sehr lange "Idle" laufen, oder gar abgeschaltet sind. Solche VMs sind Kandidaten für baldiges Löschen. Das Herausfinden, ob solche Kriterien gelten, kann entweder durch Scripting geschehen, oder durch Tools, die dies auf Knopfdruck ermöglichen.

(rb)