In der Vergangenheit wurde die Virtualisierung von Servern häufig als Ansatz betrachtet, die Hardware besser auszulasten sowie die Systemverwaltung zu vereinfachen. Einige leistungsstarke statt weniger einzelne Computersysteme kommen zum Einsatz. Neben den genannten Faktoren bringt dies einen weiteren, bislang noch wenig beachteten Effekt mit sich: Die Leistungsaufnahme sinkt, was dazu beiträgt die Betriebskosten der IT zu senken.
Was ist Server-Virtualisierung?
Virtualisierungstechnik erlaubt es, Prozessoren, Festplatten und Arbeitsspeicher eines Computers mehreren virtuellen Computern zur Verfügung zu stellen. In den virtuellen Maschinen lassen sich voneinander unabhängige Softwarekonfigurationen einrichten, die sich eine physikalische Hardware teilen. Neu ist diese Idee keineswegs: Erste Virtualisierungsansätze hatte IBM bereits um 1970 für seine Großrechner entwickelt.
Mittlerweile sind solche Verfahren für eine Reihe von Rechnerplattformen verfügbar. Sie lassen sich entweder auf Grundlage eines vorhandenen Betriebssystems wie etwa Linux oder Windows installieren oder direkt auf der Hardware des Computers, wobei dann die Virtualisierungssoftware ein eigenes Betriebssystem beinhaltet.
Einen Überblick intelligenter IT-Konzeptenzum Betrieb von Rechenzentren liefert Ihnen der Beitrag Strom, Klima, Fläche: Rechenzentren am Limit. Das intelligentes Server-Management Stromkosten sparen kann vermittelt der Beitrag Cool on Demand.
Einsparungen von 50 bis 80 Prozent
Laut einer Studie mit dem Titel "Energy efficient servers in Europe" beeinflussen Server und die dazugehörige Infrastruktur maßgeblich den Stromverbrauch in Büros und Rechenzentren, und zwar durch die erforderliche Energie für die Stromversorgung und Kühlung der Komponenten. Verfasser sind die österreichische und die französische Energieagentur, die IT-Hersteller Sun und IBM sowie die Universität Karlsruhe.
Vom gesamten Stromverbrauch innerhalb der EU entfallen demnach 1,5 Prozent auf Server-Hardware und Infrastruktur, was Kosten von etwa sechs Milliarden Euro entspricht. Nach Überzeugung der Fachleute lassen sich durch die Virtualisierung von Servern 50 bis 80 Prozent Stromkosten einsparen. Als weitere Möglichkeiten nennen die Experten nennen darüber hinaus energieeffizientere CPUs und Festplatten sowie eine gemeinsame Stromversorgung statt Netzteilen für jedes einzelne Gerät.
Das Einsparpotenzial ergibt sich unter anderem, weil sich durch Virtualisierung die Rechnerhardware besser auslasten lässt: In der Regel werden nur zehn bis 30 Prozent der verfügbaren Rechenleistung von Servern genutzt, trotzdem verbrauchen die Systeme meist etwa so viel Strom wie unter Volllast. Gelingt es, beispielsweise zehn solche Computer per Virtualisierung durch zwei leistungsfähigere Rechner zu ersetzen, die dann deutlich besser ausgelastet sind, fällt die Stromrechnung automatisch niedriger aus. Zudem benötigen zwei Komponenten weniger Platz und Kühlung, was sich ebenfalls positiv auf den Energieverbrauch auswirkt.
Doch nicht nur die geringere Anzahl der Server hilft, Strom zu sparen: Der verfügbare Arbeitsspeicher lässt sich ebenfalls in einer virtuellen Umgebung besser auslasten als bei einem einzelnen Computer. Auch der Hauptspeicher benötigt Strom, und da der Memory von Jahr zu Jahr größer wird, nimmt auch sein Energiehunger zu.
Rechenbeispiel für den Mittelstand
Virtualisierungsprojekte nehmen Unternehmen vor allem in Angriff, um die Hardwarekosten zu reduzieren und die Verwaltung ihrer IT-Landschaft zu vereinfachen, was ebenfalls die Betriebskosten drückt. Analysten des Beratungshauses Experton Group aus München behaupten, allein schon die Stromeinsparungen könnten Virtualisierungsprojekte rechtfertigen. Experton belegten das mit einem Fallbeispiel eines mittelständischen Unternehmens mit 900 Mitarbeitern und drei Niederlassungen in Deutschland. Dessen Rechenzentrum umfasst 25 dedizierte Server und 120 Blade-Systeme (Computer mit besonderer Bauform für die Montage in speziellen Rechnerschränken, auch Racks genannt). Zudem betreibt es Speichergeräte (insgesamt 10 TByte), Netzwerk-Equipment, Bandlaufwerke sowie Klimatisierungsanlagen. Die gesamte IT-Umgebung benötigt etwa 1,2 Megawatt pro Jahr, was Stromkosten von rund 165.000 Euro verursacht.
Würde die Firma im Rahmen eines Virtualisierungsprojekts die Anzahl der dedizierten Server auf 19 und die der Blade-Systeme auf 84 reduzieren sowie das Speichervolumen auf 7,5 TByte herunterschrauben, ließen sich 47.200 Euro Stromkosten im Jahr einsparen. Dazu geht Experton von Investitionen in Höhe von 60.000 Euro für Software und 40.000 Euro für Beratung aus. Über einen Zeitraum von fünf Jahren betrachtet, ergeben sich Gesamtkosten von 112.000 Euro unter Berücksichtigung der Abschreibungsfrist für Softwareprodukte von fünf Jahren.
Energieeffiziente Komponenten
Die Stromkosten der Beispielarchitektur ließen sich durch energieeffizientere Komponenten weiter drücken. Hierzu zählen dedizierte Server und Blades mit geringerer Stromaufnahme. Diese Anschaffung umfasst 184 200 Euro und wird ebenfalls über fünf Jahre abgeschrieben. Das führt zu weiteren Stromkosteneinsparungen von 35.100 Euro, was gemeinsam mit den Effekten der Virtualisierung die Energiegebühren um 82.300 Euro im Jahr senkt.
Waren es anfangs nur vergleichsweise unkritische Anwendungen, die Firmen auf virtuellen Maschinen betrieben haben, gehen Unternehmen nun dazu über, auch Geschäftsapplikationen in virtuelle Infrastrukturen einzubetten. Für IT-Dienstleister ist die Virtualisierung von Servern schon lange ein Thema und wird es durch die steigenden Energiekosten erst recht. Solche Firmen betreiben Rechenzentren und stellen Kunden beispielsweise E-Mail-Postfächer, Umgebungen für individuelle Web-Seiten und Software zur Verfügung.
Anders als bei den IT-Serviceanbietern scheint das Thema in vielen Unternehmen noch nicht angekommen zu sein. Gezielt damit befasst haben sich offenbar nur wenige IT-Experten. Daher ermitteln bisher auch nur wenige Firmen, ob ihre IT energieeffizient arbeitet. (Computerwoche/fn) (wl)