Das Potenzial, das die Virtualisierung bietet, ist noch lange nicht ausgereizt. Jörg Tewes, Solution Manager Flexible Workplace, Consulting Services, und Dirk Schiller, Leader Cloud Solutions, bei Computacenter, erläutern dies im Interview.
Virtualisierung soll es Unternehmen ermöglichen, den Administrations- und Kostenaufwand für den Betrieb und flexiblen Ausbau ihrer IT zu senken. Inwieweit wurden Ihrer Erfahrung nach diese Versprechen eingelöst?
Dirk Schiller: Im Hinblick auf die Serverlandschaft ist es nicht damit getan, lediglich Hypervisoren einzusetzen, um Aufwendungen zu minimieren. Im Vorfeld muss auch genau evaluiert werden, welche Lizenzen und Lifecycle-Management-Systeme eingesetzt werden sollen, da anderenfalls beispielsweise der Administrationsaufwand wieder zunimmt. Erst eine Virtualisierung in Kombination mit den richtigen Management-Tools für den Betrieb der virtualisierten Umgebung bringt die erwarteten Mehrwerte.
Inwieweit prüfen hier Kunden, die Dienste aus der Cloud beziehen möchten, ob der externe Provider auch die gleiche Management-Tools einsetzt?
Schiller: Die meisten Kunden stehen in dieser Beziehung noch ganz am Anfang und prüfen, wie die für sie richtige Hybrid Cloud aussehen kann. Für diese Unternehmen ist es wichtig, dass der Provider die gleichen Management-Tools einsetzt wie sie selbst. Das gewährleistet eine schnelle und unkomplizierte Integration und damit einen guten Start in die Cloud. Langfristig wird es Standards geben, damit unterschiedliche Tools und Provider einfach und sicher genutzt beziehungsweise zusammengeschaltet werden können.
Woran hakt es für erfahrungsgemäß bei Virtualisierungsprojekten?
Jörg Tewes: Bei Virtualisierungsvorhaben muss immer bedacht werden, dass nicht nur ein Unternehmensbereich betroffen ist. Die Virtualisierung von Clients erstreckt sich beispielsweise über Rechenzentrum, Netzwerk und Desktops. Die Anzahl der technischen und organisatorischen Schnittstellen nimmt zu, und damit erhöht sich der Abstimmungsaufwand. Hinzu kommt, dass neben den IT-Spezialisten nun auch vermehrt universelle IT-Rollen benötigt werden, um Projekte ganzheitlich angehen zu können.
Wie lässt sich das konkret umsetzen?
Tewes: Alle Bereiche und alle betroffenen Kollegen müssen bei einem Migrationsprojekt von Beginn an mit einbezogen werden. Das geht bereits bei der Projektentwicklung los. Die Führung sollte dann auch nicht aus einem Bereich heraus erfolgen, sondern beispielsweise über einen Mitarbeiter in einer bereichsübergreifenden Rolle.
Was sind die wesentlichen Trends und Probleme in den Bereichen Server-, Storage-, Desktop- und User-Virtualisierung?
Schiller: Um IT als Service bereitstellen zu können, müssen Betriebsabläufe und Organisationsprozesse automatisiert und orchestriert werden. Dadurch wird es möglich, das Rechenzentrum sowie die zugehörigen Prozesse großer IT-Umgebungen effizient und kostengünstig mit wenigen Mitarbeitern zu betreiben.
Setzen Endkunden Ihrer Erfahrung nach Hypervisoren-Plattformen unterschiedlicher Anbieter ein, oder bevorzugen sie eher alles aus einer Hand?
Schiller: Im Bereich Rechenzentrum ist VMware aktuell ganz vorne mit dabei. Viele Unternehmen setzen auch auf Microsofts Hyper-V. Bei der Desktop-Virtualisierung kommen Citrix-Produkte zum Einsatz.
Welche Kriterien sind für Endkunden bei der Wahl der Virtualisierungsplattform entscheidend?
Schiller: Die Stabilität der Lösung ist ganz wesentlich. Und natürlich die "Managebarkeit". Die Plattform der Wahl muss optimal in die vorhandene IT-Landschaft integrierbar sein. Kosten dürfen dabei nicht vernachlässigt werden.
Welche Rolle spielt bei der Wahl der Hypervisor-Lösung die Frage nach der Quelloffenheit?
Schiller: Nur wenige unserer Kunden machen sich Gedanken darüber, ob die Hypervisoren quelloffen sind oder nicht. Hypervisoren sind inzwischen einfach ein Standard. Sie müssen stabil und sicher sein. Ob quelloffen oder nicht, diese Frage steht nicht an erster Stelle. Ausnahmen sind hier beispielsweise Universitäten oder Hochschulen, die viel Linux einsetzen und daher die offenen Varianten bevorzugen.
Was veranlasst Kunden, die Hypervisor-Plattform zu wechseln?
Schiller: Gründe für den Wechsel zu einem bestimmten Produkt können Lizenzkosten sein. Kommt in einem Unternehmen beispielsweise vermehrt Microsoft zum Einsatz, kann das auch beim Thema Virtualisierung zum Tragen kommen.
Im Gegensatz zur Servervirtualisierung hat sich die Desktop-Virtualisierung - zumindest VDI - bislang nicht durchgesetzt. Weshalb?
Tewes: Zwei Faktoren sind dabei ausschlaggebend: Zum einen sind die Virtualisierungsprojekte im Hinblick auf die Zentralisierung der Endgerätetechnologie komplizierter als anfangs gedacht. Ein Arbeitsplatz-PC ist heutzutage eine universelle Maschine mit unzähligen Schnittstellen. Beispielsweise kann das Gerät problemlos Audio- und Videodateien lesen und für den Anwender in hoher Qualität abspielen. Soll dies jetzt über einen virtuellen PC erfolgen, müssen die Daten irgendwie vom Server durch das Netz zum Endgerät gelangen.
Zum anderen darf der organisatorische Faktor nicht vernachlässigt werden. Ein Virtualisierungsprojekt erstreckt sich immer über die komplette Unternehmens-IT. Verschiedenste Fachbereiche müssen involviert werden. Das wiederum erhöht die gesamte Komplexität eines Projektes und muss auch bei der Zeitplanung berücksichtigt werden.
In vielen Unternehmen nutzen Mitarbeiter inzwischen mehrere mobile Endgeräte. Wie wird sich das künftig auf die Virtualisierungsstrategien auswirken?
Tewes: Auf lange Sicht werden vermutlich nur noch zentrale Desktops verwaltet werden - unabhängig davon, ob diese im eigenen Rechenzentrum liegen oder in dem eines Providers. Denn die Vielfalt und auch die Anzahl der Endgeräte werden bald zu groß sein, als dass jedes Gerät individuell betrachtet werden kann. Die Unternehmens-IT wird dann nur noch Arbeitsumgebungen auf virtualisierten Plattformen bereitstellen, die unabhängig von den Endgerätetypen laufen.
Ist Desktop-as-a-Service also schon ein marktrelevantes Thema?
Tewes: Spricht man hier davon, dass Desktops im Rahmen von Managed-Services- und Outsourcing-Projekten als Service bereitgestellt werden, ist das durchaus ein marktrelevantes Thema. Zu berücksichtigen ist dabei, dass dann die Desktops nicht unabhängig von Daten und Applikationen im Rechenzentrum des Anbieters gehostet werden können.
Hersteller wie Cisco, Dell, IBM, HP, NetApp und EMC, aber auch Distributoren wie Magirus (vBundles), Arrow und Avnet sowie erste B-Brands wie beispielsweise Tarox gehen zunehmend dazu über, Referenzarchitekturen für Rechenzentren anzubieten, die Netzwerk, Storage, Server, Virtualisierungssoftware und teilweise auch Security-Komponenten integrieren. Wo liegen die Chancen und die Grenzen der Referenzarchitekturen für Reseller und Kunden?
Schiller: Die Vorteile der Referenzarchitekturen liegen ganz klar darin, dass Unternehmen eine gekapselte Infrastruktur als fertiges Produkt bekommen. Hat man eine gefunden, die optimal zur vorhandenen IT-Landschaft passt, lässt sich diese schnell und einfach integrieren.
Nichtsdestotrotz geht es bei Virtualisierung aber neben der Technologie auch immer um die Veränderungen in der IT-Organisation: Service-Denken und Kundenorientierung verwischen die Grenzen traditioneller Abteilungen für Netze, Client-Server und Storage. Organisationsstrukturen und Prozesse müssen angepasst werden, und bei den Mitarbeitern gilt es, Vertrauen in die neue IT-Welt zu schaffen.
Was wird bei der Absicherung virtueller Umgebungen häufig zu wenig beachtet?
Tewes: Es darf nicht vergessen werden, dass die verschiedenen Virtualisierungsschichten auch verwaltet werden müssen. Die Hypervisor-Plattformen und alle Schnittstellen müssen administriert und aktualisiert werden.
(rb)