Von Wolfgang Leierseder
Analyst Bittman begründete seine Ansicht damit, dass die Umstellung von klassischer Unternehmens-IT auf prozessbasierende Virtualisierung erhebliche, wenn nicht grundlegende Konsequenzen für die Lizenzierung und Wartung nach sich ziehe. Zudem müsste der Umgang mit neuen Technologien wie zum Beispiel Video-Applikationen in solchen Virtualisierungs-Szenarien genau bedacht werden. Und er konstatierte, Virtualisierung sei zum gegenwärtigen Zeitpunkt einfach teuer.
Zwar rechnet der Gartner-Analyst fest damit, dass in naher Zukunft Virtualisierung als ein fester Bestandteil von Hard- und Software kostenlos erhältlich sein werde, doch auch diese Dreingabe ändere nichts daran, dass Virtualisierung zu gravierenden Eingriffen in die bestehende IT führen werde.
Was die Zukunft der virtuellen Maschinen selbst anbelangt, so prognostizierte Bittman für das Jahr 2009 weltweit über vier Millionen Maschinen. Derzeit laufen laut Gartner weltweit rund 540.000 virtuelle Rechner. Bittman sagte ferner, der potenzielle Markt könne noch viel größer ausfallen, wenn Unternehmen nicht allein auf Virtualisierung und Server-Konsolidierung schauten, sondern vielmehr auf eine gut verwaltete, den Geschäftsprozessen entsprechende IT-Infrastruktur.
Daran mangele es aber noch. Zum Beweis führte er eine hauseigene Befragung von 700 Gartner-Kunden vom November 2006 an, die zeige, dass die meisten Unternehmen noch am Anfang des Aufbaus einer gut verwalteten IT-Infrastruktur und deren Betrieb steckten.
"Virtualisierung ohne gute Verwaltung ist gefährlicher als Virtualisierung von vornherein gar nicht zu verwenden", sagte der Analyst auf der Hausmesse in Australien. Automatisierung sei der "kritische nächste Schritt für Unternehmen, um Virtualisierungs-Wildwuchs zu verhindern, der nicht viel besser ist als Server-Wildwuchs".
Den derzeitigen Hype um Rechencenter-Lösungen ("Data Center") kommentierte der Analyst mit: "Die Anbieter werden um dieses Thema heftig ringen." Für Unternehmen bedeute das, sie müssten eine klare Strategie entwickeln, um den Stellenwert von konsolidierten Serverzentren einschätzen zu können. Erst dann sollten sie sich die Angebote der Hersteller ansehen.
"Erlauben Sie VMWare, IBM und Microsoft nicht, das Kommando über Ihre Rechner zu übernehmen." Keiner der drei habe bis heute eine konsistente Virtualisierungsstrategie vorgelegt, sodass man vermeiden sollte, sich von einem Anbieterkonzept "einsperren" zu lassen.
Gartner-Analyst Phil Sargent fügte hinzu, dass Unternehmen mit Virtualisierungsanbietern klar diskutieren sollten, was es bedeute, wenn eine Menge von Client-Anwendungen auf virtualisierte Server wanderte. Man müsse in einer solchen, neu geschaffenen "Realtime"-Infrastruktur sehr genau über Services, Verfügbarkeit und Support reden, bevor man auf die Karte Virtualisierung setze. Sargent stellte die Frage, was in einem Unternehmen passiere, wenn eine kritische Client-Software nicht verfügbar sei. Einer Gartner-Studie zufolge seien 60 Prozent der Ausfälle in Service-basierenden IT-Umgebungen (Stichwort SOA) auf Applikationsausfälle zurückzuführen. Hingegen seien in klassischen Client-Server-Umgebungen nur 40 Prozent auf solche Ausfälle zurückzuführen.
Unbestritten sei jedoch, sagte wiederum Bittmann, dass Server-Stromkosten und -Kühlanforderungen Unternehmen unweigerlich in Richtung Virtualisierung bewegen werden. Folglich sei es unerlässlich, dafür Konzepte zu entwickeln.
Immerhin kämen einige Konzepte in Frage: Sie reichten von dem Einsatz entsprechend abgestrippter Betriebssysteme - stellvertretend seien Windows und Linux genannt - über klar definierte Virtualisierungsschichten bis hin zum kompletten Outsourcing der IT. Das treffe nicht nur auf Großunternehmen zu, sondern gelte ebenso für mittelständische Firmen.
Der griffige, bei dergleichen Veranstaltungen unvermeidliche Rat der Gartner-Analysten lautete sodann: IT-Manager sollten sich auf Geschäftsprozesse konzentrieren, wenn es um Virtualisierungskonzepte gehe. Am besten sei es, Kunden zu fragen, welche Dienste sie sich von einem Unternehmen erwarteten. Dann wüsste ein Unternehmen am besten, in welche Richtung es seine IT verbessern sollte.