Referenzarchitekturen sollen die Modernisierung der Rechenzentren erleichtern. Wir geben einen Überblick über die verfügbaren Designs, die Chancen für Partner sowie über Vorteile und Grenzen der Architekturen.
In den Rechenzentren der Unternehmen steht ein Generationswechsel an, teilweise ist er schon in vollem Gange. Laut einer von Oracle in Auftrag gegebenen Studie (Next Generation Data Center Index 2012) planen 41 Prozent der Rechenzentrumsleiter großer Unternehmen hierzulande, innerhalb der nächsten zwei Jahre in ein neues Data Center zu investieren. Auch Gartner-Umfragen belegen, dass die Umgestaltung der Data Center bei IT-Chefs höchste Priorität genießt.
Für Partner ist das eine gute Nachricht, denn Kunden werden sich bei diesem Umbau in erster Linie an ihren bisherigen Dienstleister wenden. Mit dem bloßen Verkauf der Hardware und Software ist es aber nicht mehr getan. Ein Blick auf die künftige Architektur dieser Rechenzentren erklärt, weshalb.
Die neue Architektur soll vor allem mehr Flexibilität und die dynamische Zuschaltung von IT-Ressourcen aus der Cloud ermöglichen. Das setzt voraus, dass das Rechenzentrum weitgehend virtualisiert ist und hochautomatisiert arbeiten kann.
Die meist wild gewachsenen IT-Landschaften vieler Unternehmen dahingehend umzurüsten erweist sich oft als teuer und nur bedingt investitionssicher. Vor allem aber suchen IT-Leiter händeringend nach Lösungen, um das Management der - bei aller Konsolidierung - auf Anwenderseite bunter werdenden System-, Dienste- und Applikationslandschaft wieder in den Griff zu kriegen. Der Einzug der iPads und die wuchernde Schatten-IT durch den unkontrollierten Bezug von Public-Cloud-Diensten durch die Fachabteilungen ist da nur die Spitze des Eisbergs.
Referenzdesigns nehmen Fahrt auf
Die Vollsortimenter unter den Herstellern entwickeln deshalb seit rund zwei Jahren sogenannte Referenzarchitekturen. Sie kombinieren aufeinander abgestimmte, getestete Storage-, Server-, Netzwerk- und Virtualisierungskomponenten, teilweise auch Middleware- und Applikations-Software in einem quasi vorgefertigten, validierten "Stack", mit einer zentralen Managementeinheit.
Damit sollen sich Private Clouds - inhouse betriebene Rechenzentren mit kontrollierten "Anschlussmöglichkeiten" an die Public Cloud - leichter einrichten lassen. Das Prinzip ähnelt dem der BtO-Konfigurationen bei Servern und PCs: Es gibt validierte Hardwarevarianten, darauf abgestimmte Betriebs- und Managementsysteme und je nach Hersteller auch optionale Zusatzkomponenten oder Applikationen - allerdings auf der komplexeren Rechenzentrumsebene. So werden unter anderem Templates definiert, in denen automatisierbare Konfigurationen beispielsweise von Server-, Netzwerk- und Speicherressourcen oder Applikationen hinterlegt sind.
Noch einen Schritt weiter gehen Angebote, beispielsweise von Oracle oder IBMs angekündigte "PureSystems", die diese Stacks sogar branchenoptimiert anbieten. In diese Branchen-Kerbe wollen alle Hersteller schlagen, die heute schon mit ihren Data-Center-Architekturen im Ring stehen: Cisco, HP, IBM, Oracle, Dell und Fujitsu.
Zielkunden waren und sind jedoch nicht nur Anwenderunternehmen, sondern auch Systemhäuser und Integratoren, die eine eigene Hosting-Infrastruktur aufbauen wollen, um Endkunden Cloud-basierte Dienste anzubieten.