Die Virtualisierung des Rechenzentrums ist auf dem Vormarsch: Zu Software Defined Computing gesellen sich Software Defined Storage und Software Defined Networking. Das Grundprinzip ist schnell erklärt: Der Datentransfer erfolgt auf Standard-Hardware und wird per Software gesteuert. Damit lassen sich endlich die von den Fachabteilungen geforderten IT-Services kosteneffizient und schnell bereitstellen. Klingt gut. Doch die virtuelle Infrastruktur stellt auch die Organisation vor große Aufgaben.

Foto: Computacenter
Was bedeutet Software Defined Datacenter?
So neu ist die Idee des Software Defined Datacenter (SDDC) eigentlich nicht. Das virtuelle Rechenzentrum ist mehr der nächste logische Schritt, der auf Technologien wie Software Defined Storage (SDS) und Software Defined Computing (SDC) aufbaut.
Das Grundprinzip von Software Defined X ist die Trennung von Kontroll- und Datenebene, die Abkopplung infrastruktureller Komponenten von operationalen Prozessen. Sämtliche Steuerungsfunktionen werden von der Hardware losgelöst und in eine übergeordnete, zentrale Software-Lösung ausgelagert. Die Hardware erfüllt lediglich die Funktionen zur Verarbeitung der Daten, sodass hierfür kostengünstige Standardkomponenten eingesetzt werden können. Spezifische Anforderungen bezüglich einzelner Anwendungen und Prozesse werden in die zentrale Steuerungsintelligenz ausgelagert.
Anschaulich kann das Konzept anhand von SDS, einer der technologisch ausgereifteren Software Defined X-Disziplinen, erklärt werden: Bei SDS werden die Daten physikalisch auf Standard-Datenträgern gespeichert. Die Control Plane - eine übergeordnete Softwareanwendung - steuert wiederum, wo und wie die Daten gespeichert werden und stellt die Data-Services bereit.
Dynamik in starre Strukturen
Doch neben der Tatsache, dass sich mit Software Defined X Hardwarekosten reduzieren lassen, gewinnen Unternehmen vor allem an Flexibilität. Änderungen müssen zum Beispiel nicht mehr wie bisher auf jeder einzelnen Komponente umgesetzt, sondern lassen sich auf der zentralen Steuerungsebene mit wenigen Klicks oder sogar automatisch durchführen. Unternehmen können ihre IT dadurch wesentlich schneller an neue Anforderungen anpassen, was sich angesichts des hohen Innovationstempos in vielen Wirtschaftszweigen als Wettbewerbsvorteil erweist.
Auch interne Prozesse lassen sich optimieren, indem Anfragen aus den Fachabteilungen schneller bearbeitet werden. Mit einem effizienten IT-Service-Management ist es beispielsweise möglich, einen Server mit Datenbank und Betriebssystem innerhalb weniger Stunden zur Verfügung zu stellen - anstatt nach mehreren Wochen. Doch nicht nur die Mitarbeiter der Fachabteilungen profitieren von der schnelleren Reaktionszeit ihrer IT-Kollegen. Die IT selbst hat durch die automatisierte Steuerung mehr Zeit, sich auf strategische Kernaufgaben zu konzentrieren.
Zukunftsvision oder Realität?
Die größte Hürde, die derzeit viele IT-Entscheider davon abhält, die Idee der Virtualisierung auf das gesamte Rechenzentrum auszudehnen, ist die unterschiedliche Marktreife der drei Komponenten SDC, SDS und SDN.
Während viele Unternehmen bei ihren Serverlandschaften Virtualisierungsgrade von bis zu 80 Prozent erzielen, stecken Konzepte für virtuelle Netzwerke noch in den Kinderschuhen. Derzeit gibt es einige Hersteller, die zögerlich erste Produkte launchen.
Der Markt für Software Defined Storage zeigt sich hingegen sehr dynamisch: Vielversprechende Produkte, die bereits seit einigen Jahren eingesetzt werden, stehen einer Handvoll ganz neuer Ansätze gegenüber. Daher setzen viele Rechenzentren derzeit auf eine Kombination aus Software-gesteuerten und klassischen Storage-Lösungen.
Soweit der Status quo im Software Defined X-Markt. Die Frage ist: Lohnt es angesichts der teilweise noch sehr jungen Technologien, dass sich Unternehmen jetzt schon mit dem Gesamtkonzept SDDC auseinandersetzen? Die Antwort ist ein eindeutiges Ja. Denn sowohl die technischen als auch die organisatorischen Weichen müssen früh gestellt werden, damit die Technologien, wenn sie in ein bis drei Jahren ausgereift sind, in Betrieb genommen werden können.
Gerade angesichts der relativ langen Investitionszyklen im Rechenzentrumsumfeld sollten Unternehmen sich möglichst frühzeitig mit dem Aufbau virtueller Infrastrukturen beschäftigen. Es dauert oft mehrere Jahre, bis etwa eine neue Netzwerkstruktur, die das Rückgrat des gesamten Rechenzentrums bildet, stabil läuft. Die Anwendungssoftware muss entsprechend umgestellt und IT-Administratoren geschult werden.
Kurz: Es gilt, die Zeit zu nutzen und jetzt die Basis zu legen. Je früher Unternehmen den Weg ins virtuelle Rechenzentrum antreten, desto größer ist ihr Innovationsvorsprung, wenn die Technologien einsatzbreit sind. (rb)
Die technischen Grundsteine legen
Eine vorbereitende Maßnahme, die Unternehmen jetzt treffen können, ist es, ihre Storage- und Netzwerk-Hardware mit sogenannten Element-Managern auszustatten. Als Management-Software verfügen diese über die entsprechenden Automatisierungsschnittstellen, damit sie an die übrigen Komponenten des SDDC angeschlossen werden können.
Im nächsten Schritt empfiehlt es sich, einzelne Services zu identifizieren, die bereits virtualisiert betrieben werden können. Langfristig wird sich sowieso in den meisten Rechenzentren ein Parallelbetrieb Software-gesteuerter und klassischer Infrastrukturen etablieren.
Dabei findet die Unterscheidung nicht auf der Anwendungsebene statt, sondern es werden einzelne Aufgaben herausgegriffen, die als virtuelle Dienste zur Verfügung stehen. Im Netzwerkbereich könnte eine solche Aufgabe die Vergabe von IP-Adressen oder die Definition und Verwaltung von Access Control Lists (ACL) sein. Was heute vielerorts noch manuell durchgeführt wird, kann Software-basiert automatisiert werden. Ein vollständiges SDN ist hierfür natürlich nicht notwendig. Dennoch können Unternehmen jetzt schon einzelne Services in virtuellen Strukturen testen, in den Produktionsbetrieb überführen und im Lauf der Zeit zu einer ganzheitlichen SDDC-Struktur ausbauen.
Organisatorische Voraussetzungen schaffen
Per se leisten dies die einzelnen Technologiesilos nicht. Sie benötigen eine übergeordnete Software, die die Ressourcen orchestriert und dabei auf die einzelnen infrastrukturellen Komponenten und auf ein Regelwerk zurückgreift, das definiert, wie dieser Zugriff erfolgen soll. Wenn die Personalabteilung zum Beispiel einen Server bestellt, müssen hier andere Sicherheitsregeln implementiert werden als auf einem SAP- oder SharePoint-Server. Auf die HR-Daten des Unternehmens sollten nur personalverantwortliche Mitarbeiter Zugriff haben. Solche Regeln müssen definiert und hinterlegt werden, und zwar nicht nur technisch, sondern auch organisatorisch.
Hierfür müssen die meist in Technologiesilos organisierten IT-Teams ihre gewohnten Strukturen aufbrechen. Bislang sind Netzwerk-Experten oft ausschließlich fürs Netzwerk und Storage-Verantwortliche nur für Storage-Themen verantwortlich. Die orchestrierten Prozesse des SDDC erfordern eine übergreifende Perspektive.
Neue Technik erfordert neue Teams und neue Rollen
Es sind also auch neue Organisationsstrukturen gefragt: Die Orchestrierung des SDDC sollte entweder ein eigens eingerichtetes Team, das sich ausschließlich um Orchestrierungsthemen kümmert, oder ein virtuelles Team, das sich aus Mitarbeitern der Netzwerk-, Storage- und Computing-Teams zusammensetzt, übernehmen.
In der Praxis erweist sich meist der zweite Ansatz als erfolgsversprechender, denn die Mitarbeiter, die in den einzelnen Technologiethemen verwurzelt sind, bleiben durch ihre Arbeit in den drei Bereichen auf dem neuesten Stand der Technik und sind in der Organisation bereits entsprechend verzahnt und etabliert.
Die Aufgaben des SDDC-Architekten
Neu entsteht ebenfalls die Rolle des SDDC-Architekten, der dieses virtuelle Team leitet. Die Praxiserfahrung zeigt, dass diese Führungskraft am besten in der Unternehmenshierarchie in der Nähe der IT-Leitung angeordnet ist, allerdings eine rein fachliche Verantwortung für das Orchestrierungsteam trägt. Dadurch ist der Mitarbeiter in der Lage, in Dialog mit den Managern der einzelnen Technologieteams zu treten und gleichzeitig die Klammer zur übergeordneten Führungsetage zu bilden.
Fazit: Jetzt die Weichen stellen
Auf diese neuen Rollen sollten Unternehmen sich rechtzeitig vorbereiten, etwa indem sie Mitarbeiter aus den einzelnen Teams bereichsübergreifend weiterbilden. Denn entsprechend interdisziplinär qualifizierte Experten gibt es kaum auf dem Arbeitsmarkt. Fachexpertise in den einzelnen Disziplinen ist jedoch in vielen, vor allem großen Unternehmen vorhanden. Aber zum Aufbau des Orchestrierungswissens empfiehlt es sich, externe Technologieberatung in Anspruch zu nehmen, die in mittelständischen Unternehmen auch die Rolle des kommunikativen Knotenpunkts zwischen den einzelnen Technologiedisziplinen übernehmen kann.
Abgesehen von neuen Rollen, Teams und Arbeitsabläufen steht der IT auf dem Weg zum SDDC ein grundlegender Paradigmenwechsel bevor: Die IT wird zum Service Provider, der in der Lage ist, dem Unternehmen schnell, kosteneffizient und flexibel die erforderlichen Dienste zur Verfügung zu stellen. Durch diese Dynamik erreichen Unternehmen die Agilität, um den sich in vielen Industriezweigen rasant verändernden Anforderungen begegnen zu können.
Starre IT-Systeme stoßen hierbei immer häufiger an ihre Grenzen. Gleichzeitig bietet das Unternehmen auch der zunehmenden Tendenz Paroli, dass Fachabteilungen sich an der IT vorbei eigene Services beschaffen und so bis zu 20 Prozent des Budgets in eine Schatten-IT investieren. Zudem sind Unternehmen in der Lage, in Zeiten des sich verschärfenden Fachkräftemangels qualifizierte Mitarbeiter aus aller Welt mit hochmodernen, attraktiven Arbeitsplätzen anzulocken. Mit dieser technologischen Grundlage unterstützt die virtuelle IT Unternehmen dabei, einigen der größten aktuellen Herausforderungen zu begegnen.