Vom gesamten Stromverbrauch innerhalb der EU entfallen demnach 1,5 Prozent auf Server-Hardware und Infrastruktur, was Kosten von etwa sechs Milliarden Euro entspricht. Nach Überzeugung der Fachleute lassen sich durch die Virtualisierung von Servern 50 bis 80 Prozent Stromkosten einsparen. Als weitere Möglichkeiten nennen die Experten nennen darüber hinaus energieeffizientere CPUs und Festplatten sowie eine gemeinsame Stromversorgung statt Netzteilen für jedes einzelne Gerät.
Das Einsparpotenzial ergibt sich unter anderem, weil sich durch Virtualisierung die Rechnerhardware besser auslasten lässt: In der Regel werden nur zehn bis 30 Prozent der verfügbaren Rechenleistung von Servern genutzt, trotzdem verbrauchen die Systeme meist etwa so viel Strom wie unter Volllast. Gelingt es, beispielsweise zehn solche Computer per Virtualisierung durch zwei leistungsfähigere Rechner zu ersetzen, die dann deutlich besser ausgelastet sind, fällt die Stromrechnung automatisch niedriger aus. Zudem benötigen zwei Komponenten weniger Platz und Kühlung, was sich ebenfalls positiv auf den Energieverbrauch auswirkt.
Doch nicht nur die geringere Anzahl der Server hilft, Strom zu sparen: Der verfügbare Arbeitsspeicher lässt sich ebenfalls in einer virtuellen Umgebung besser auslasten als bei einem einzelnen Computer. Auch der Hauptspeicher benötigt Strom, und da der Memory von Jahr zu Jahr größer wird, nimmt auch sein Energiehunger zu.