Windows Server 2012 wurde im Vergleich zu seinem Vorgänger insbesondere im Hinblick auf Virtualisierung, Administration und Remote-Desktop-Dienste überarbeitet. Für Admins interessant: Wichtiger als neue Funktionen ist häufig die einfachere Verwaltbarkeit. Grund genug für eine eingehende Betrachtung der Änderungen.
von Michael Korp, TecChannel
Einige der mit Windows Server 2008 R2 eingeführten Technologien wurden in Windows Server 2012 deutlich überarbeitet. Exemplarisch seien hier die Komponenten Hyper-V und DirectAccess genannt. Die Entwicklung von Produkten wie Windows Server beginnt mit Szenarien, die wiederum verschiedene Funktionalitäten benötigen. Es werden also die technischen Eigenschaften umgesetzt, die für die definierten Szenarien benötigt werden.
Für Windows Server 2012 lassen sich die zugrunde liegenden Szenarien in drei Bereiche unterteilen:
-
Cloud und dazugehörig Virtualisierung
-
Administration
-
Remote-Desktop-Dienste
Im Folgenden werden die Neuerungen und Änderungen der einzelnen Bereiche detailliert erläutert. Auch bei der Lizenzierung hat sich einiges geändert, auch wenn das hier nicht das zentrale Thema ist. Es gibt vier Editionen von Windows Server 2012, deren Auswahl von der Größe der Organisation sowie von den Anforderungen an Virtualisierung und Cloud Computing abhängt (siehe auch Windows Server 2012: Microsoft nennt Preise und Editionen). Die Standard Edition weist jetzt dieselben funktionalen Eigenschaften auf wie die Datacenter Edition und unterscheidet sich lediglich hinsichtlich der Virtualisierungsrechte, nicht mehr aber in den verfügbaren Fähigkeiten und Rollen.
Die Datacenter Edition bringt unbegrenzte Virtualisierungsrechte mit. Lizenziert wird außerdem in Zukunft strikt nach Prozessoren (nicht Kernen). Jede Lizenz deckt dabei zwei Prozessoren ab. Das Portfolio wird durch die Essentials und Foundation Editionen ergänzt, wobei diese explizit für kleinere Unternehmen konzipiert sind und pro Server lizenziert werden.
Virtualisierung und Skalierbarkeit
Im Bereich der Virtualisierung bringt Windows Server 2012 die umfassendsten Veränderungen mit sich; sie betreffen Skalierung, Live Migration, Cluster und Hardwarefähigkeiten wie NUMA (Non-unified Memory Architecture).
In Sachen Skalierung sind gegenüber dem Vorgänger Windows Server 2008 R2 in drei Bereichen erhebliche Veränderungen zu verzeichnen:
• Hardware des physischen Host
• Konfiguration der einzelnen virtuellen Maschine
• Auslastung der Virtualisierungs-Hosts und -Cluster
System |
Ressource |
Maximalwerte |
|
Windows Server 2008 R2 |
Windows Server 2012 |
||
Host |
Logische Prozessoren des Hosts |
64 |
320 |
Physischer Arbeitsspeicher |
1 TByte |
4 TByte |
|
Virtuelle Prozessoren pro Host |
512 |
1024 |
|
Virtuelle Maschine |
Virtuelle Prozessoren pro VM |
4 |
64 |
Arbeitsspeicher pro VM |
64 GByte |
1 TByte |
|
Aktive Virtuelle Maschinen |
384 |
1024 |
|
Größe einer virtuelle Platte |
2 TByte |
64 TByte |
|
Cluster |
Knoten |
16 |
64 |
Virtuelle Maschinen |
1000 |
4000 |
Der Vergleich zeigt, dass nicht nur die Skalierungsmöglichkeiten der einzelnen Virtuellen Maschine (VM), sondern auch die Dichte der Virtualisierung, also die Anzahl der gleichzeitig auf einem Host laufenden VMs, erhöht wurde.
Damit gehen auch die Änderungen der Speicherverwaltung einher. Es lässt sich jetzt nicht nur der für das Starten eines virtuellen Computers notwendige Speicher festlegen, sondern neben dem maximal zuweisbaren auch der minimal zugewiesene Arbeitsspeicher.
Da Windows gelegentlich für den Start mehr Speicher benötigt als später im laufenden und eingeschwungenen Betrieb, erhöht dies die mögliche Dichte an VMs.
Damit die VMs auch noch bei einem stark ausgelasteten Server neu starten können (Reboot), wird dann bei Bedarf für einen begrenzten Zeitraum Speicher ausgelagert. Hier wird nicht sofort einer VM der maximale Speicher zur Verfügung gestellt, sondern erst dann, wenn er benötigt wird. Dies hilft, Anwendungen, die per se erst einmal den Großteil des verfügbaren Speichers für sich allokieren, ein wenig im Zaum zu halten und damit mehr Ressourcen für andere VMs aufzusparen. Generell wird aber der im Host verfügbare Speicher unter den laufenden Maschinen anhand der konfigurierten Kriterien dynamisch "verteilt". Wird es eng im Speicher, muss jede VM - oder besser das dort laufende OS - selber entscheiden, wie es sinnvoll mit dem Speichermangel umgeht. Immerhin ist an dieser Stelle auch das "Wissen" am größten.
Live-Migration mit Flexibilität
Bisher basierte bei Windows Server die Live-Migration auf den fehlertoleranten Cluster-Diensten. Zwischen zwei Cluster-Knoten mit gemeinsamem Storage konnten laufende VMs unterbrechungsfrei verschoben werden.
Aus Gründen der Verwaltbarkeit liefen in der Regel mehrere VMs auf einer größeren LUN, weswegen der Speicher auch als CSV (Cluster Shared Volume) eingebunden sein musste. Gerade in größeren Umgebungen stellte dabei die Grenze von 16 Knoten eine Herausforderung dar. Außerdem gibt es durchaus auch das Szenario, in dem der Platz auf der LUN erschöpft ist und daher VMs auf eine andere LUN verschoben werden mussten. Die ging - wie auch die Verschiebung auf einen anderen Host außerhalb des Clusters, gegebenenfalls in einem anderen Cluster - nur mit einer gewissen Ausfallzeit als "Quick Migration". Dabei wurde die Maschine gespeichert, verschoben und wieder gestartet.
Mit dem neuen Windows Server wird die sogenannte "Shared nothing"-Live-Migration unterstützt. Cluster und gemeinsamer Storage werden weiterhin unterstützt und auch genutzt, aber nicht mehr vorausgesetzt. Dadurch ergeben sich vielfältige Kombinationen der Freizügigkeit: Migration von einem einzelnen Host auf einen anderen, beide mit lokalen Platten, Migration zwischen verschiedenen Clustern oder auch nur die Verlagerung der virtuellen Festplatten auf einen anderen Speicher. Natürlich ist auch die Verschiebung zwischen einzelnem Host und Cluster möglich.
In einem Cluster wird die Verschiebung der Rolle VM weiterhin über den Cluster-Manager durchgeführt, aber auch der Hyper-V-Manager eines einzelnen Host kennt jetzt die Option zum Verschieben. Der System Center Virtual Machine Manager 2012 mit dem SP1 beherrscht all diese Varianten. Dies bietet sich besonders für größere Umgebungen an, wo die Verwaltung über die normalen Serverkonsolen schnell unhandlich wird.
Netzwerke und Virtualisierung
Auch im Bereich Netzwerk hat es Neuerungen gegeben. So sind insbesondere Fähigkeiten hinzugekommen, die bei der Virtualisierung helfen können. Damit sind Verbesserungen bei Kernfähigkeiten wie NIC-Teaming und virtuellen Switches gemeint. Auch die Unterstützung RDMA-fähiger Netzwerkkarten gehört in dieses Gebiet einsortiert. Die Fileserver-Funktionalitäten (siehe auch Windows Server 2012 - Neue Funktionen für Dateiserver) profitieren hiervon ebenso.
Netzwerk-Teaming setzt jetzt nicht mehr eine spezielle Unterstützung der Treiberhersteller voraus, sondern ist im Betriebssystem Windows Server integriert. Man erzeugt ein Team und fügt einfach Adapter hinzu.
Aus dem Netzwerk-Switch wurde in Windows Server 2012 der erweiterbare Netzwerk-Switch. Es werden also nicht nur VM Queues und SR-IOV (Single-Root I/O Virtualization) bei entsprechenden Netzwerkadaptern unterstützt, sondern der Switch selbst kann erweitert werden.
Für die Erweiterungen des VM-Switches stehen zwei Schnittstellen zur Verfügung: Eine fungiert als Filterschicht im Paketfluss, die andere (Windows-Filtering-Plattform) in der Art eines "Call Out"-Filters. Damit lassen sich spezielle Paket-Forward-Funktionen, Filter bis hin zu Firewall und IDS (Intrusion Detection) wie auch Anti-Malware-Schutz direkt auf der Ebene der virtuellen Netzwerk-Switches und damit nah am virtuellen Server und nicht erst außerhalb des Hosts im physischen Netzwerk implementieren. Passende Erweiterungen sind von Cisco oder F5 angekündigt.
Eine weitere Funktion der erweiterbaren und virtualisierten Netzwerkfunktionen könnte man als "Rewrite" der Adressen beschreiben. Nehmen wir als Beispiel eine ganz simple Anwendung aus zwei Servern: Datenbank und Webserver. Damit die Webanwendung mit der Datenbank kommunizieren kann, müssen beide die Netzwerkadressen des jeweils anderen kennen. Damit Anwender mit der Webanwendung "reden" können, muss der Webserver auch von "außen" erreichbar sein. Wenn nun die Anwendung von einem Host auf einen beliebigen anderen verschoben wird, kann es notwendig sein, dass die Netzwerk (IP)-Infrastruktur angepasst werden muss, was aber unschön ist und potenziell zu Fehlern führen kann.
Hier soll die Virtualisierung des Netzwerks helfen, indem die Server untereinander fest mit "beliebigen" Adressen konfiguriert sind, beispielsweise 10.0.0.1 und 10.0.0.2, während der Hyper-V-Host dies dann passend auf seine externen Adressen umsetzt. Beim Verschieben muss dann diese Host-Konfiguration dem Ziel-Host angepasst werden, was Werkzeuge wie der Virtual Machine Manager 2012 SP1 automatisch erledigen. Ansonsten lässt sich dies per PowerShell konfigurieren.
Dieses Feature ist insbesondere dann von Bedeutung, wenn es sich nicht nur um einige Virtualisierungs-Hosts im eigenen Serverraum, sondern um Cloud-Infrastrukturen handelt. Dabei ist es dann unerheblich, ob der Service mit den beiden Servern erst in der eigenen "Private Cloud" betrieben wird und später einmal als VM unter Windows Azure in der Public Cloud oder umgekehrt.
Hohen Arbeitslasten begegnen
Dadurch, dass aktuell bis zu 64 virtuelle Prozessoren einer VM zugewiesen werden können, lassen sich auch sehr große Arbeitslasten virtualisieren. Dabei nutzt die VM auch mehr als einen physischen Prozessor, was bedeutet, dass der Umgang mit NUMA-Einflüssen notwendig wird. Der Code in der VM muss also intelligente Entscheidungen zum Verteilen von Ausführungs-Threads und Speicherzugriffen treffen. Daher lässt sich entweder die physische NUMA-Architektur des Host in der VM präsentieren oder ein NUMA-Modell vorgeben, wenn die VM zum Beispiel zwischen unterschiedlichen Hosts verschoben werden muss.
Derartige Arbeitslasten erfordern gelegentlich auch den Betrieb in einem Cluster. Cluster virtueller Maschinen gingen bisher nur mittels iSCSI.
Dieser ging bisher nur über iSCSI. Hyper-V erlaubt jetzt, Fibre-Channel-HBAs zu virtualisieren und damit SAN-Speicher direkt an VMs zuzuweisen und so auch aus VMs Cluster mit gemeinsamen SAN Speicher zu erstellen.
In Situationen, wo klassische SANs vielleicht nicht die Anforderungen erfüllen, gibt es jetzt die Möglichkeit, den Speicher der VMs direkt auf SMB-Dateifreigaben abzulegen. Notwendige Voraussetzung: Die Dateifreigabe muss SMB 3.0 unterstützen. Wer jetzt denkt, dass SMB-Zugriffe den Ruf haben, für solche Anwendungen zu langsam zu sein, sollte sich die relevanten Sessions der vergangenen TechEd ansehen, beispielsweise die Session zum "Cluster-in-a-Box". Für einige Leistungsdemonstrationen wurden etwa zwölf schnelle Platten hinter einem HBA benötigt, um den SMB-Durchsatz zu befriedigen.
Verwaltung und Automation
War PowerShell bisher ein Werkzeug, das in Windows integriert war, aber eher von anderen Serveranwendungen als von Windows selber genutzt wurde, so wird sich das mit Unterstützung von PowerShell wahrscheinlich ändern.
Die Anzahl der CMDLets wurde auf etwa 2400 stark erweitert, sodass jetzt ein umfassenderes Servermanagement per PowerShell möglich ist. Darüber hinaus hat auch die PowerShell ISE dazugelernt: Intellisense, Auswahllisten aller Befehle und Attribute wie auch Haltepunkte zum Debuggen sind jetzt Standard.
War bisher PowerShell die einzige effiziente Möglichkeit, administrative Aufgaben auf mehreren Servern anzuwenden, erlaubt dies nun auch der überarbeitete Server-Manager. Dies fängt beim Dashboard für die wichtigsten Aufgaben an, erlaubt dann aber neben der Verwaltung des lokalen Servers auch die Verwaltung vieler weiterer Server aus einer Konsole heraus. Dabei lassen sich Gruppen bilden, um Server nach Aufgaben oder Zuständigkeiten zusammenzufassen. Der Server-Manager erkennt automatisch die installierten Rollen auf den verwalteten Servern und integriert entsprechende Einträge in der Navigation. Alle Server mit der jeweiligen Rolle werden so automatisch gruppiert, und die passenden Werkzeuge werden kontextbezogen angeboten.
Cluster und Storage
Cluster spielen eine zentrale Rolle bei der Bereitstellung fehlertoleranter Systeme. Die Cluster-Dienste in Windows Server wurden weiterentwickelt: Einige Neuerungen dienen speziell der Virtualisierung. So lassen sich Prioritäten definieren, sodass VMs mit hoher Priorität vor denen mit niedrigerem Stellenwert gestartet werden und bei Bedarf Letztere als Erste gestoppt werden. Auch Affinität und Anti-Affinität lassen sich definieren, sodass immer die richtigen VMs auf dem gleichen oder immer auf verschiedenen Knoten laufen.
Änderungen gibt es auch in Sachen Wartung. Ein Knoten kann per "Knopfdruck" in Wartung versetzt werden, was alle dort laufenden Rollen automatisch auf andere Knoten verschiebt. Früher war diese Aufgabe Teil der System-Center-Werkzeuge, jetzt ist sie direkt im Server integriert. Aktualisierungen wie am traditionellen Patch Day laufen per Assistent automatisch für den ganzen Cluster. Dabei werden alle freigegebenen Updates nacheinander auf alle Knoten angewendet und die Rollen zwischendurch passend verschoben. In der Windows-Aufgabenplanung können Sie nun Cluster-Aufgaben für den ganzen Cluster, einen Knoten oder den Knoten mit einer bestimmten Ressource planen.
Speziell für kleine Umgebungen kann es hilfreich sein, dass der Cluster inzwischen auch ohne einen verfügbaren Domänencontroller starten kann, zum Beispiel, wenn nur wenig Hardware verfügbar ist und alle funktionalen Server als VMs auf diesem Cluster laufen. In einer DMZ oder in Niederlassungen werden jetzt schreibgeschützte Domänencontroller (RODC) unterstützt. Für Niederlassungen ist zudem interessant, dass die Cluster-Laufwerke jetzt die Verschlüsselung per BitLocker unterstützen. Zusätzlich ist das Quorum-Modell dynamischer geworden, sodass jetzt mehr als die Hälfte der Knoten "ohne Probleme" ausfallen kann. Dass man dann sicherlich Probleme anderer Art hat, ist ein anderes Thema.
Ein Feature, das neben Hyper-V auch anderen Anwendungen, wie zum Beispiel einem SQL Server, dienen kann, ist der hochverfügbare Dateiserver.
Die neue Hochverfügbarkeit zusammen mit SMB 3.0 hilft neben Hyper-V auch anderen Anwendungen wie beispielsweise dem SQL-Server. Freigaben werden hochverfügbar, da die Freigabe auf Cluster-Ebene definiert wird und damit alle Cluster-Knoten aktiv Clients bedienen können. Dafür wurden auch die Cluster Shared Volumes (CSV) überarbeitet. So werden häufig genutzte Daten im CSV-Cache gehalten; das kann die Performance beim Starten von VMs positiv beeinflussen.
Eine wichtige Anmerkung: Wenn ein Hyper-V-Cluster seine Daten auf einem SMB-Cluster ablegen soll, müssen dies zwei getrennte Cluster sein - "Loopback" funktioniert hier nicht. Die Fehlerüberprüfung auf Dateisystemfehler (chkdsk) läuft nun als Hintergrundaufgabe mit. Storage Spaces funktionieren im Cluster, sodass Laufwerke jetzt "dünn" bereitgestellt werden können. Im Prinzip würde also ein einfacher JBOD-Speicher ausreichen.
Remote Desktops und VDI
Wenn der Anwender nicht mehr an seinem normalen internen Arbeitsplatz sitzt, muss man ihm die früher nur dort verfügbaren IT-Funktionen anders zugänglich machen.
Dazu gehört, dass er von praktisch jedem Gerät aus seine Daten, Einstellungen und auch Anwendungen benötigt und, bei Bedarf, den Zugang zu diesen von einem beliebigen Ort aus. Ohne "Remote Desktops" - egal ob in Form der "Terminal Services" oder als Desktop-VM - lässt sich dies meist nicht darstellen.
Der Anwender greift ja dann meist auch nicht mit einem regulären Firmen-PC zu, sondern nutzt entweder zu Hause ein privates Gerät oder verwendet einen Tablet, der die dienstlichen Anwendungen gar nicht ausführen kann oder weil die Daten sicher in den Grenzen des Unternehmens verbleiben müssen. Bei Windows firmieren Terminal-Services und Desktop-VMs als VDI unter dem Begriff "Remote Desktop Services".
Mit Windows Server 2012 kommt hierfür jetzt eine eigene Konfigurationsoption im Assistenten zur Konfiguration der Serverrollen hinzu. Eine besondere Herausforderung ist meist aber nicht einmal die Bereitstellung der Desktops, sondern das Verwalten der Daten und Einstellungen der Anwender. Hier sollen die Virtualisierung der Benutzereinstellungen, die als Teil des Desktop Optimization Pack (MDOP) verfügbar sein wird, sowie die "User Profile Disks" für Desktop-VMs Unterstützung bieten.
Das mit Windows 7 / Windows Server 2008 R2 eingeführte DirectAccess gestattet es Mitarbeitern, sich mit ihrem Firmennetzwerk zu verbinden, ohne VPN verwenden zu müssen (siehe auch DirectAccess mit Windows Server 2008 R2). Darüber hinaus erlaubt DirectAccess das sichere Gerätemanagement über das Internet. Nur war die Konfiguration bisher eher kompliziert und erforderte je nach Umgebung zusätzliche Werkzeuge, meist das Forefront Unified Access Gateway (UAG). Mit Windows Server 2012 lässt sich DirectAccess nun einfacher bereitstellen.
Dieser Artikel stammt von unserer Schwesterpublikation TecChannel. (kv)