Referenzarchitekturen sollen die Modernisierung der Rechenzentren erleichtern. Wir geben einen Überblick über die verfügbaren Designs, die Chancen für Partner sowie über Vorteile und Grenzen der Architekturen.
In den Rechenzentren der Unternehmen steht ein Generationswechsel an, teilweise ist er schon in vollem Gange. Laut einer von Oracle in Auftrag gegebenen Studie (Next Generation Data Center Index 2012) planen 41 Prozent der Rechenzentrumsleiter großer Unternehmen hierzulande, innerhalb der nächsten zwei Jahre in ein neues Data Center zu investieren. Auch Gartner-Umfragen belegen, dass die Umgestaltung der Data Center bei IT-Chefs höchste Priorität genießt.
Für Partner ist das eine gute Nachricht, denn Kunden werden sich bei diesem Umbau in erster Linie an ihren bisherigen Dienstleister wenden. Mit dem bloßen Verkauf der Hardware und Software ist es aber nicht mehr getan. Ein Blick auf die künftige Architektur dieser Rechenzentren erklärt, weshalb.
Die neue Architektur soll vor allem mehr Flexibilität und die dynamische Zuschaltung von IT-Ressourcen aus der Cloud ermöglichen. Das setzt voraus, dass das Rechenzentrum weitgehend virtualisiert ist und hochautomatisiert arbeiten kann.
Die meist wild gewachsenen IT-Landschaften vieler Unternehmen dahingehend umzurüsten erweist sich oft als teuer und nur bedingt investitionssicher. Vor allem aber suchen IT-Leiter händeringend nach Lösungen, um das Management der - bei aller Konsolidierung - auf Anwenderseite bunter werdenden System-, Dienste- und Applikationslandschaft wieder in den Griff zu kriegen. Der Einzug der iPads und die wuchernde Schatten-IT durch den unkontrollierten Bezug von Public-Cloud-Diensten durch die Fachabteilungen ist da nur die Spitze des Eisbergs.
Referenzdesigns nehmen Fahrt auf
Die Vollsortimenter unter den Herstellern entwickeln deshalb seit rund zwei Jahren sogenannte Referenzarchitekturen. Sie kombinieren aufeinander abgestimmte, getestete Storage-, Server-, Netzwerk- und Virtualisierungskomponenten, teilweise auch Middleware- und Applikations-Software in einem quasi vorgefertigten, validierten "Stack", mit einer zentralen Managementeinheit.
Damit sollen sich Private Clouds - inhouse betriebene Rechenzentren mit kontrollierten "Anschlussmöglichkeiten" an die Public Cloud - leichter einrichten lassen. Das Prinzip ähnelt dem der BtO-Konfigurationen bei Servern und PCs: Es gibt validierte Hardwarevarianten, darauf abgestimmte Betriebs- und Managementsysteme und je nach Hersteller auch optionale Zusatzkomponenten oder Applikationen - allerdings auf der komplexeren Rechenzentrumsebene. So werden unter anderem Templates definiert, in denen automatisierbare Konfigurationen beispielsweise von Server-, Netzwerk- und Speicherressourcen oder Applikationen hinterlegt sind.
Noch einen Schritt weiter gehen Angebote, beispielsweise von Oracle oder IBMs angekündigte "PureSystems", die diese Stacks sogar branchenoptimiert anbieten. In diese Branchen-Kerbe wollen alle Hersteller schlagen, die heute schon mit ihren Data-Center-Architekturen im Ring stehen: Cisco, HP, IBM, Oracle, Dell und Fujitsu.
Zielkunden waren und sind jedoch nicht nur Anwenderunternehmen, sondern auch Systemhäuser und Integratoren, die eine eigene Hosting-Infrastruktur aufbauen wollen, um Endkunden Cloud-basierte Dienste anzubieten.
Startschuss mit Selbsttests
Pionierarbeit für hochintegrierte Rechenzentrumsdesigns leistete interessanterweise der Newcomer unter den Serverherstellern: Cisco. Mit EMC und dessen Töchtern RSA und VMware gründete der Einsteiger 2009 ein Joint Venture - die heutige VCE Company. Gemeinsam wurden die "vBlocks" entwickelt, eine der ersten komplett integrierten Referenzarchitekturen. Ausgelegt sind sie für Großunternehmen: Die kleinste Variante unterstützt zwischen 300 und 800 virtuelle Maschinen. Fast zeitgleich brachte HP die Converged Infrastructure auf den Markt, die eine ähnliche Stoßrichtung verfolgte.
Sowohl EMC als auch HP diese Umrüstung der IT von der traditionellen Silo-Struktur zu einer horizontal ausgerichteten IT im eigenen Haus vorgenommen. Dieser Erfahrungsschatz dürfte nicht nur in die weiteren Entwicklungen, sondern auch in die Partnerprogramme eingeflossen sein, entlang der Frage: Was muss ein Reseller wissen und können, um eine solchen Umbau bei seinem Kunden zu bewerkstelligen?
Die Ära der Allianzen
Das ist allerdings nur die halbe Geschichte. Denn Cisco schmiedete eine zweite Allianz mit VMware und dem EMC-Konkurrenten Netapp. Die Flexpod-Designs waren geboren. Heute stehen rund 20 Designs zur Verfügung.
Der Grund für Ciscos Seitensprung aus dem VCE-Joint-Venture: 2010 führte EMC praktisch keine SMB-Linien im Portfolio. Ein Manko für Cisco, das als Serverneuling mit Referenzarchitekturen auch im Mittelstand Fuß fassen wollte.
Obendrein spielte der Flexpod gegenüber den Konkurrenzangeboten einen Vorteil aus: Er bietet dem Kunden hinsichtlich der Designs weitaus größere Spielräume, da er in bestehende IT-Landschaften integrierbar ist und somit dem Partner mehr Möglichkeiten für ergänzende Services bietet.
Ebenso wie VCE gewährt die Flexpod-Allianz einen Single-Support: Alle beteiligten Hersteller haben sich verpflichtet, bei Problemfällen zentraler Ansprechpartner zu sein, egal, ob die Ursache des Problems durch die Server-, Storage-, Virtualisierungs- oder Netzwerk-Komponenten bedingt ist.
Die Stärken des Flexpods so weit wie möglich mit denen der vBlocks zu kombinieren nahm Magirus 2010 in Angriff und entwickelte die vBundles. Sie sind bereits für Unternehmen mit weniger als 25 virtuellen Maschinen interessant und schlugen deshalb im Markt hohe Wellen. Die größte der vier vBundle-Varianten wurde mit dem Launch der vBlock100-Variante vor Kurzem abgekündigt, denn die angepeilten Kundengrößen überschneiden sich an dieser Stelle.
Seitdem sprießen SMB-Data-Center-Designs wie Pilze aus dem Boden, zwei unterschiedlichen Ansätzen folgend: alles aus einer Hand (beispielsweise Dell mit den vStart-Linien, IBM mit den Private-Cloud-StarterPacks, HP mit Converged Infrastructure beziehungsweise SystemMatrix, Fujitsu mit den Data Center Infrastructure Building Blocks oder Oracle mit den Engineered Systems beziehungsweise den speziell für den Channel entwickelten Oracle Database Appliances) oder Allianz-Angebote wie die Flexpdos, die vBundles von Magirus, EMC VSPEX oder die CNI-Bundles von Distributor Arrow auf Basis von Citrix, Netapp und IBM.
Was bedeutet das für den IT-Handel?
Wie schon die Virtualisierung, erfordern auch die Referenzarchitekturen von Partnern ein enorm breit gefächertes Know-how. Zum einen müssen sie alle Aspekte des virtualisierten Data-Center abdecken können: von den Hardwarekomponenten über die Virtualisierungs- und Middleware-Layer bis hin zu Backup-Recovery- und Security-Aspekten. Erfolgreiche kleinere Systemhäuser kooperieren deshalb zunehmend mit anderen Häusern, die ergänzendes Know-how beisteuern können - oder übernehmen sie gleich ganz. Das ist eine ähnliche Entwicklung wie auf der Herstellerseite.
Gleichwohl sollen es die Referenzarchitekturen den Partnern einfacher machen, in den Virtualisierungs- und Cloud-Markt einzusteigen, so das Credo der Hersteller. Das stimmt allerdings nur zum Teil. Auf Infrastrukturseite wird es zwar einfacher, auf der Software- und Prozessebene aber komplizierter.
So lösen die Data-Center-Designs beispielsweise nicht das Problem der unternehmensweiten Datenintegration. Experton-Group-Analyst Andreas Zilch zufolge riskieren Anwender obendrein die Abhängigkeit vom Hersteller, wie er am Beispiel der IBM PureSystems ausführt: "Für Anwender bieten sie vor allem dann Vorteile, wenn das Data Center bereits auf Websphere und DB2 standardisiert ist. Allerdings ist dies in relativ wenigen Fällen die Realität, oft herrscht applikationsgetrieben eine starke Heterogenität. Gerade im Datenbankbereich werden die meisten Anwender Oracle und Microsoft SQL Server unterstützen müssen. Und gerade in diesen gemischten Umgebungen kann der Vorteil zu einem Nachteil werden, denn die neue Generation von Private-Cloud-Appliances erhöht zunächst die Komplexität, da ein weiteres System hinzukommt", so Zilchs Fazit.
Nach Ansicht von Roland König, Leiter des Geschäftsfelds Virtualisierung bei der Bechtle AG, stellen die Stacks für die Kunden zwar eine durchgängige Infrastruktur und Teile einer Plattform bereit. "Ich kenne allerdings noch kein Modell, das wirklich alle Aspekte einer ganzheitlichen Lösung abdeckt. Für den Schritt in die hybride Welt braucht der Kunde die Management-Tools, die Verbindungssoftware, die Cloud-Bridges etc., die Hardware ist insofern nur sekundär. Das komplette, fertige Cloud-Bundle vor allem mit Blick auf die Software habe ich noch nicht gesehen."
Die Dienste der Partner werden also auch im Zeitalter der "Out-of-the-Box"-Angebote weiter benötigt.
(rb)