Windows Server 2012 wurde im Vergleich zu seinem Vorgänger insbesondere im Hinblick auf Virtualisierung, Administration und Remote-Desktop-Dienste überarbeitet. Für Admins interessant: Wichtiger als neue Funktionen ist häufig die einfachere Verwaltbarkeit. Grund genug für eine eingehende Betrachtung der Änderungen.
von Michael Korp, TecChannel
Einige der mit Windows Server 2008 R2 eingeführten Technologien wurden in Windows Server 2012 deutlich überarbeitet. Exemplarisch seien hier die Komponenten Hyper-V und DirectAccess genannt. Die Entwicklung von Produkten wie Windows Server beginnt mit Szenarien, die wiederum verschiedene Funktionalitäten benötigen. Es werden also die technischen Eigenschaften umgesetzt, die für die definierten Szenarien benötigt werden.
Für Windows Server 2012 lassen sich die zugrunde liegenden Szenarien in drei Bereiche unterteilen:
-
Cloud und dazugehörig Virtualisierung
-
Administration
-
Remote-Desktop-Dienste
Im Folgenden werden die Neuerungen und Änderungen der einzelnen Bereiche detailliert erläutert. Auch bei der Lizenzierung hat sich einiges geändert, auch wenn das hier nicht das zentrale Thema ist. Es gibt vier Editionen von Windows Server 2012, deren Auswahl von der Größe der Organisation sowie von den Anforderungen an Virtualisierung und Cloud Computing abhängt (siehe auch Windows Server 2012: Microsoft nennt Preise und Editionen). Die Standard Edition weist jetzt dieselben funktionalen Eigenschaften auf wie die Datacenter Edition und unterscheidet sich lediglich hinsichtlich der Virtualisierungsrechte, nicht mehr aber in den verfügbaren Fähigkeiten und Rollen.
Die Datacenter Edition bringt unbegrenzte Virtualisierungsrechte mit. Lizenziert wird außerdem in Zukunft strikt nach Prozessoren (nicht Kernen). Jede Lizenz deckt dabei zwei Prozessoren ab. Das Portfolio wird durch die Essentials und Foundation Editionen ergänzt, wobei diese explizit für kleinere Unternehmen konzipiert sind und pro Server lizenziert werden.
Virtualisierung und Skalierbarkeit
Im Bereich der Virtualisierung bringt Windows Server 2012 die umfassendsten Veränderungen mit sich; sie betreffen Skalierung, Live Migration, Cluster und Hardwarefähigkeiten wie NUMA (Non-unified Memory Architecture).
In Sachen Skalierung sind gegenüber dem Vorgänger Windows Server 2008 R2 in drei Bereichen erhebliche Veränderungen zu verzeichnen:
• Hardware des physischen Host
• Konfiguration der einzelnen virtuellen Maschine
• Auslastung der Virtualisierungs-Hosts und -Cluster
System |
Ressource |
Maximalwerte |
|
Windows Server 2008 R2 |
Windows Server 2012 |
||
Host |
Logische Prozessoren des Hosts |
64 |
320 |
Physischer Arbeitsspeicher |
1 TByte |
4 TByte |
|
Virtuelle Prozessoren pro Host |
512 |
1024 |
|
Virtuelle Maschine |
Virtuelle Prozessoren pro VM |
4 |
64 |
Arbeitsspeicher pro VM |
64 GByte |
1 TByte |
|
Aktive Virtuelle Maschinen |
384 |
1024 |
|
Größe einer virtuelle Platte |
2 TByte |
64 TByte |
|
Cluster |
Knoten |
16 |
64 |
Virtuelle Maschinen |
1000 |
4000 |
Der Vergleich zeigt, dass nicht nur die Skalierungsmöglichkeiten der einzelnen Virtuellen Maschine (VM), sondern auch die Dichte der Virtualisierung, also die Anzahl der gleichzeitig auf einem Host laufenden VMs, erhöht wurde.
Damit gehen auch die Änderungen der Speicherverwaltung einher. Es lässt sich jetzt nicht nur der für das Starten eines virtuellen Computers notwendige Speicher festlegen, sondern neben dem maximal zuweisbaren auch der minimal zugewiesene Arbeitsspeicher.
Da Windows gelegentlich für den Start mehr Speicher benötigt als später im laufenden und eingeschwungenen Betrieb, erhöht dies die mögliche Dichte an VMs.
Damit die VMs auch noch bei einem stark ausgelasteten Server neu starten können (Reboot), wird dann bei Bedarf für einen begrenzten Zeitraum Speicher ausgelagert. Hier wird nicht sofort einer VM der maximale Speicher zur Verfügung gestellt, sondern erst dann, wenn er benötigt wird. Dies hilft, Anwendungen, die per se erst einmal den Großteil des verfügbaren Speichers für sich allokieren, ein wenig im Zaum zu halten und damit mehr Ressourcen für andere VMs aufzusparen. Generell wird aber der im Host verfügbare Speicher unter den laufenden Maschinen anhand der konfigurierten Kriterien dynamisch "verteilt". Wird es eng im Speicher, muss jede VM - oder besser das dort laufende OS - selber entscheiden, wie es sinnvoll mit dem Speichermangel umgeht. Immerhin ist an dieser Stelle auch das "Wissen" am größten.