Neue Servicemodelle wie Cloud Computing und der Druck, IT-Ressourcen effizienter zu nutzen, verändern das Rechenzentrum grundlegend.
von Ariane Rüdiger (freie Journalistin in München)
„Netzwerke und Rechenzentren werden in einigen Jahren das Rückgrat der globalen gesellschaftlichen, wirtschaftlichen und politischen Infrastruktur bilden“, prognostizierte Aaron Davis, Marketingchef beim Energiemanagement-Spezialisten Schneider Electric auf der Kongressmesse Datacenter 2011 in Nizza. Schon heute verursache die IT rund zwei Prozent des weltweit erzeugten Kohlendioxids; in einigen Jahren könnten es bis zu 20 Prozent sein. „Diese Verantwortung muss die Branche verstehen und ihr auch gerecht werden“, forderte der Manager.
Die Konsequenzen für das RZ heißen: Automatisierung, Globalisierung, Modularisierung und Ökologisierung. Zu den Gewinnern dieser Entwicklung gehören die Betreiber der großen Dienstleistungs-Rechenzentren, Verlierer sind oft die IT-Organisationen in Anwenderfirmen. Denn gerade kleine und mittlere Unternehmen, da waren sich zumindest in Nizza die meisten Experten einig, werden schon aus finanziellen Gründen mittelfristig den Verlockungen eines serviceorientierten IT-Modells, sprich Cloud Computing, nachgeben.
Trend 1: Von der Private zur Public Cloud
„Private Clouds werden oft genug nur ein Übergang zur mindestens teilweisen Nutzung von Public-Cloud-Infrastrukturen sein“, erwartet Peter Edwards, Associate Director beim Beratungsunternehmen Arup. Das passt zu den Prognosen von IBMs Cheftechnologen Gunter Dueck: „Irgendwann werden die Controller anfangen, die Kosten des internen RZ mit denen von externen RZ-Dienstleistern zu vergleichen.“ Dieser Vergleich werde sehr häufig zu Ungunsten der internen Lösung ausgehen. Oder, wie es Fujitsu-CTO Joseph Reger vor BS2000-Kunden in Dresden formulierte: „Die IT verschwindet in den Anwendungen.“
IT-Manager müssten deshalb genau die Bedürfnisse des Kerngeschäfts verstehen und sich an ihnen orientieren, fordert Marion Howard-Healy, Senior Consultant beim Beratungsunternehmen Broad Group. Oft genug werde das in Zukunft eine Make-or-buy-Entscheidung und dann die Suche nach dem passenden RZ-Dienstleister bedeuten. Healy: „Dazu braucht man eher betriebswirtschaftliche Kenntnisse.“
Wichtiger als bisher wird die geografischen Lage eines Rechenzentrums: Sie entscheidet über Strom- und Kühlkosten, die Anbindung ans Stromnetz und die Verfügbarkeit von Personal. Einige RZ-Dienstleister versuchen angesichts günstiger Arbeitskräfte und niedrigen Stromtarifen beispielsweise in Ost- oder Zentraleuropa zu punkten. Andere achten neben finanziellen Aspekten auch auf ökologische Faktoren und die eigene Sicherheit. Sie verteilen ihre Data Center möglichst in unterschiedlichen Zeit- und Klimazonen mit günstigen Kühlbedingungen und kohlendioxidarmer Stromerzeugung – Nordeuropa ist ein Beispiel für einen solche Standort.
Teaserbild Homepage Aufmacher: (c) zentilia_Fotolia
Teaserbild: Fotolia / Andres Rodriguez
Trend 2: Modularisierung
Ein weiterer wichtiger Trend im Data Center ist die Modularisierung: Infrastruktur soll im Idealfall nur dann implementiert und bezahlt werden, wenn sie wirklich jemand braucht. IT-Anwenderunternehmen können inzwischen aus einem breiten Angebot modularer RZ-Ansätze wählen. Colt stellte in Nizza beispielsweise fertig vorkonfigurierte Data-Center -Module in vier Größen zwischen 125 und 500 Quadratmeter vor. Jedes ist mit unterschiedlichen Redundanzniveaus und für unterschiedliche Stromlasten verfügbar und kann auch in fertigen Gebäuden montiert werden. Module unterschiedlicher Größe und Ausstattung lassen sich bedarfsgerecht zu Multi-Tier-Rechenzentren zusammensetzen. Die Stuttgarter M + W-Group plädiert sogar für ein Konzept, bei dem die Gebäudehülle erst der letzte, gegebenenfalls sogar verzichtbare Baustein des Rechenzentrums ist, ganz ähnlich auch das spanische Unternehmen AST Modular.
Gerade kommt von HP ein neuer „Eco-Pod“ auf den Markt, der einen PUE von 1,05 erreichen soll (PUE = Power Usage Effectiveness, Verhältnis der vom gesamten Rechenzentrum verbrauchten zu der von der IT verbrauchten Energie). Das HP-System besteht aus zwei 40-Fuß-Containern je einer Rechnerreihe, denen von außen Kaltluft zuströmt, und einem Zwischenelement, in dem sich der heiße Mittelgang befindet. Die Leistungsdichte soll 1,725 MW betragen, die Rackkapazität liegt bei 2200 Höheneinheiten, das sind bis 39 kW pro Rack. Weitere Beispiele für vorstrukturierte Lösungen sind Flexpod, eine Gemeinschaftsleistung von Cisco und Netapp oder Fujitsu/Microsofts Hyper-V-Lösung.
Aber auch Teilmodullösungen sind sinnvoll: Schneider Electric stellt mit EcoBreeze ein modulares RZ-Kühlsystem vor, das als primäres Kühlmedium Außenluft verwendet. Sie wird, wenn erforderlich, per Verdunstungskühlung auf niedrigere Temperatur gebracht. Die unterirdische Verrohrung wird vormontiert, die einzelnen Kühlmodule dann aufgestellt, wenn das Rechenzentrum sich allmählich füllt.
Trend 3: Automatisierung und Integration
Nach wie vor schreitet die Automatisierung im RZ fort und sorgt dafür, dass ein anderer Megatrend nur maßvoll Schaden anrichten kann: In den nächsten Jahren geht rund die Hälfte des geschulten RZ-Personals in Rente. Während Daten- und Kommunikationsvolumina ungebremst wachsen, müssen die anfallenden Aufgaben mit dem gleichen oder weniger Personal erledigt werden, da der Nachwuchs fehlt.
Nach der Virtualisierung von Standard-Servern folgt nun auch die „Hybridisierung“ der Mainframes, also ihre Öffnung für Standardtechnologien, wie sie beispielsweise Fujitsu in den neueren BS2000-Modellen praktiziert und in der schon geplanten SE-Serie fortsetzen wird. Die Techniken sollen das BS2000-Betriebssystem, virtualisierte Gastsysteme unter v2000, aber auch Systeme unter anderen Hypervisoren mit Intel-Hardware und Peripherie in einem System integrieren. Dieses wird dann von einem Breitband-Backplane und einem einheitlichen Management zusammengehalten. Ganz ähnlich macht es IBM bei seinen zBX-Systemen: Sie integrieren in z-Series-Mainframes einfach Blades mit Intel-Architektur. Damit wird das Host-System auch für andere Workloads geöffnet. Ob dies neue Kunden für den Mainframe gewinnt oder nur die alten bei der Stange hält, bleibt abzuwarten.
Um das Arbeiten im RZ zu vereinfachen, gibt es neue Ideen: Das Stecken der zahlreichen Glasfaserverbindungen an Aggregations- Switches im RZ ist bisher sehr aufwändig und komplex. Hier soll ein neues System von Corning, LANScape Premium Edge, helfen. Die einzelnen Anschlüsse, in die Fasern eingebracht werden müssen, befinden sich auf einem beweglichen Träger, den man etwa zehn Zentimeter aus dem Chassis des Switch herausziehen kann. Dann liegen sie frei und lassen sich leicht bestücken. Corning spricht davon, dass sich durch die Methode der Zeitbedarf für diese Aufgabe um drei Viertel verringert.
Ein anderes Beispiel ist das Management der IT-Infrastrukturen und der RZ-Gebäude: Lange brauchte man nahezu für jeden einzelnen Systemtyp ein Programm, mit dem sich das entsprechende Gerät steuern lässt. Mittlerweile wachsen nicht nur die IT-Systeme im RZ managementtechnisch zusammen, sondern das Management der IT-Infrastruktur wird direkt gekoppelt mit dem der physikalischen Gebäude-Infrastruktur, also der Steuerung der Klima-, Kühl und anderer Systeme. Dies ist auch sinnvoll, denn so kann, wie das beispielsweise das RZ Marilyn in Paris tut, die Abwärme aus dem RZ genutzt werden, um angrenzende Büros zu heizen.
Zwei Beispiele von vielen für diesen Trend. Ganz neu ist Emersons Trellis DCIM (Datacenter Infrastructure Management), das die Produkte seiner Aufkäufe wie Avocent und Liebert endlich zu einer umfassenden Lösung integriert. Mit der Lösung lassen sich nun IT- und physikalische Infrastruktur des RZ gemeinsam verwalten. Die zahlreichen Module sind unabhängig voneinander einsetzbar.
Schneider Electric geht mit Ecostruxure noch weiter: Das modulare Programm vereint unter einem Dach das Energiemanagement, das Prozess- und Maschinenmanagement von Produktionsanlagen sowie das RZ-Management und das Gebäude- und Sicherheitsmanagement. Damit wird eine übergreifende Steuerung und Optimierung des Betriebsgeschehens auch unter energetischen Gesichtspunkten möglich.
Trend 4: RZ-Sicherheit – ein lösbares Problem
Die Sicherheit ist noch immer ein neuralgischer Punkt beim Übergang zu dienstleistungsorientierten RZ-Modellen. Wer RZ-Leistung an Kunden verkauft, muss garantieren können, dass mit ihren Daten kein Schindluder getrieben wird. Allerdings ist die Branche entgegen der sich jüngst häufenden Skandale davon überzeugt, das Problem lösen zu können.
Ganz ohne politische Anstrengungen wird das aber wohl nicht funktionieren. „Wir brauchen dringend eine mindestens EU-weite Harmonisierung der Sicherheitsrichtlinien“, fordert beispielsweise der auf IT-Recht spezialisierte italienische Anwalt Rocco Panetta.
Wege zu mehr technischer Sicherheit gibt es viele. So arbeiten Netzriesen wie Cisco und Juniper schon länger daran, Infrastrukturelemente so zu gestalten, dass erst gar keine Malware Daten oder Rechner erreicht.
Doch oft ist der Mensch der eigentliche Schadensurheber – sei es nun aus Böswilligkeit oder Schlamperei. Auch dagegen ist ein Kraut gewachsen. Elektrisch fernsteuerbare Schrankschlösser von TZ Infrastructure Protection am Schaltschrank helfen weiter, wenn man nicht an jedem RZ-Standort entsprechendes Personal vorhalten kann. Jeder Schrank erhält zwei Schlösser – je eins für Vorder- und Hintertür das den Handhebel ersetzt. Jedes Schloss kommt mit zwei Temperatursensoren, die messen, wenn der Schrank überhitzt. Alle Schlösser eines Unternehmens – auch Schränke in mehreren RZ - lassen sich von einem zentralen Punkt nach Regeln steuern, auch wenn kein Mitarbeiter vor Ort ist. Über ein RFID-Modul im Schrank und eine Kennkarte können berechtigte Mitarbeiter aber auch vor Ort den Schrank öffnen. Das Schloss protokolliert zudem Zugriffsversuche Unberechtigter.
Trend 5: Standards und Messbarkeit
Die Qualität von RZs oder Cloud-Services lässt sich in in Zukunft auch an Zertifikaten ablesen. Das ist nicht nur für reinrassige Dienstleister interessant, sondern auch dann, wenn Unternehmen erst allmählich ihre Rechenleistung auch Dritten zugänglich machen wollen. Eine Zertifizierung mit ein bis fünf Sternen (beste Note) plant beispielsweise der deutsche Zweig des europaweiten Verbandes der Cloud-Anbieter, EuroCloud Deutschland eco e.V. Dabei werden neben der RZ-Technik auch Kriterien wie Sicherheit oder Vertragsgestaltung geprüft. „EuroCloud will vor allem Vertrauen für die Cloud-Technologie aufbauen“, sagt Bernd Becker, Vorsitzender des deutschen Zweigs und zweiter Vorsitzender des europäischen Verbandes. Damit wird man angesichts der jüngsten Pannen wohl allerhand zu tun haben.
Auch hinsichtlich ihres Energieverbrauchs werden RZs vergleichbarer, das ist nun kein Exotenthema mehr. Denn sobald Kunden für den verbrauchten Strom direkt zahlen sollen, werden sie für verschwenderische Praktiken weniger Verständnis haben als bisher. Der französische RZ-Betreiber Celeste jedenfalls implementiert Strommesser an jedem Server-Steckplatz seines Kollokations-Rechenzentrums Marilyn in Paris und will seine Kunden für den Strom zur Kasse bitten. Wo das nicht geplant ist, zahlt der RZ-Betreiber selbst. Überflüssiger Stromverbrauch belastet dann direkt den Gewinn oder – bei internen RZ – die Kostenstelle. Lesen Sie hierzu auch den Artikel: "Wie Pioniere das RZ kühlen"
Die PUE (Power Usage Effectiveness, Verhältnis der vom gesamten Rechenzentrum verbrauchten zu der von der IT verbrauchten Energie) hat mittlerweile zahlreiche Verwandte: CUE für den Kohlendioxidausstoß pro kWh IT-Leistung, WUE für Wasserverbrauch pro kWh IT-Leistung und ERE für außerhalb des Rechenzentrums weiterverwendete Abfall-Energie, zum Beispiel Wärme. PUE als Messlatte für die Umweltqualität von RZ wurde inzwischen von hochrangigen US-, europäischen und japanischen Akteuren spezifiziert. Mittelfristig ist auch eine Standardisierung denkbar. Angestrebt wird heute bei RZ-Renovierungen ein PUE-Wert von 1,4. Bei Neubauten sind Werte unter 1,3 anscheinend ohne allzu große Verrenkungen erreichbar. Das durchschnittliche Alt-Rechenzentrum liegt dagegen bei PUEs über 2: Es braucht mehr Energie fürs Drumherum als für die Rechenprozesse.
Seit Neuestem propagiert The Green Grid das in Nizza vorgestellte DCMM (Data Center Maturity Model). Es bewertet unterschiedliche Bereiche wie Server, Storage, Netzwerke, Kühlung, Stromversorgung etc. separat anhand einer mehrstufigen Skala und vordefinierter Kriterien bezüglich ihrer „Reife“. Die Einzelbewertungen lassen sich dann zu einer Gesamtwertung verdichten. Auch DCMM soll international spezifiziert werden..
Trend 6: Die Datenberge wachsen weiter
Während Sicherheits- und Energieprobleme lösbar scheinen, ist gegen die Daten- und Applikationsflut anscheinend kein Kraut gewachsen. Beides lässt die IT trotz beachtlicher Effizienzgewinne ständig weiter wachsen. So wird sich der mobile Datenverkehr nach Zahlen von Cisco bis 2015 jedes Jahr nahezu verdoppeln. Ein Grund dafür, so Andrew Harrison, Direktor beim RZ-Beratungsunternehmen Arup, sei fehlende Effizienz. Das Problem beginnt aus seiner Sicht schon bei den Entscheidungen darüber, welche Daten überhaupt gespeichert werden, welche Anwendungen nötig sind und wie effizient im Sinne einer Code-Optimierung diese programmiert werden. „Hier muss unbedingt etwas passieren“, fordert er. Bessere Kühlsysteme oder schnellere Rechner könnten unsinnige Entscheidungen in diesem Bereich nicht kompensieren.
Doch bis dahin ist der Weg wohl noch weit. Vorerst bemühen sich Server- und Speicherhersteller, die Datenmassen möglichst Platz sparend zu verarbeiten und wegzuspeichern. Wichtige, sich inzwischen rasant verbreitende Technologien sind beim Speichern Thin Provisioning, Data Deduplication und Tiering. Die Anbieter dieser innovativen Speichertechniken sind größtenteils schon wieder den Imperien der großen Anbieter einverleibt, was das Marketing dafür vereinfacht. So verspricht HP den Nutzern seiner 3Par-Systeme eine glatte Halbierung des Speicherbedarfs. Und EMC reklamiert mit IQ 108NL Scale-Out NAS auf Basis von Isilon-Technologie das größte Dateisystem der Welt für sich.
Die eigentliche Herausforderung besteht nicht in der Speicherung, sondern darin, spezifische Informationen zu finden. Ein Beispiel für neue Ansätze im Bereich der Datenverwaltung und -analyse ist Apache Hadoop, ein Open-Source-Framework zur Verwaltung großer, verteilter Datenbestände. Sowohl EMC als auch Netapp wollen noch in diesem Jahr Lösungen auf Basis der Technologie anbieten. Große Datenmengen lassen sich mit Hadoop so aufgliedern, dass sie von verteilten Computern bearbeitet werden können.
Bei den Servern geht alles wie üblich in Richtung schneller, höher, weiter. Allerdings werden Leistungssteigerungen mittlerweile durch Multicore-Architekturen statt durch schnellere Taktung erreicht. Intel-CPUs dominieren in den meisten Server-Systemen, aber auch AMD-Prozessoren sind häufig anzutreffen. Allerdings könnte sich das durchaus ändern. Denn Newcomer wie Calxeda versuchen es mit ganz neuen Ansätzen: Calxeda beispielsweise setzt auf die ARM-Prozessorplattform – mit erstaunlichen Resultaten: Ein voll bestücktes Rack fasst 9600 ARM-Prozessorknoten, hat mehr als 20 TBit breite interne Verbindungswege und leistet pro Watt vier- bis sechs Mal so viel wie ein gleich großes Rack, das mit Intel-Atom-Rechnern bestückt ist.
Trend 7: Breite Wege, lange Strecken
Weil Daten und Anwendungen in virtualisierten Umgebungen wesentlich mehr als früher im und zwischen RZs verschoben werden, braucht man ausreichende, und das heißt, verglichen mit der 1-GBit/s-Welt vergangener Tage, mehr Bandbreite. Glasfaser wird deshalb in vielen Rechenzentren zum Maß der Dinge, wobei mancherorts auch schon 40-Gigabit-Komponenten eingesetzt werden. Das Marktvolumen für 10G, 40G und 100G-Transponder soll nach aktuellen Zahlen von Infonetics bis 2015 auf 2,8 Milliarden Dollar wachsen. Der Umsatz mit optischen Transceivern für 10G-Verbindungen legte 2010 um 160 Prozent zu, wird aber in Zukunft teilweise von kleineren Bauformen wie SFP kannibalisiert.
Inzwischen offerieren viele Hersteller Produkte, die auf die neuen Cloud-tauglichen Rechenzentren zugeschnitten sind. Dell beispielsweise integriert in seine PowerEdge M915-Server eine Netzwerkkarte, deren Schnittstellen sich unabhängig vom Switch-Fabrikat partitionieren lassen – ein Schlag gegen HP und Cisco. Beide bieten ihren Kunden Partitionierungstechnologien an, die lediglich zu bestimmten Switches passen, um die Lösung aus einer Hand nahezulegen. HP wiederum, vor einiger Zeit durch den Aufkauf von 3Com im Netzwerkbereich verstärkt, präsentiert seine Architektur FlexNetwork, die RZ-, Campus- und Zweigstellennetz gemeinsam verwaltet und die Serverkommunikation über FlexFabric einbindet. Zentrale Komponente ist der Core-Switch HP A15000.
Auch Force10 verkündet mit Open Cloud Networking eine neue Offenheits-Strategie fürs RZ, die mit einer Reihe standardbasierender Komponenten unterfüttert wird. Bei Extreme Networks heißt die entsprechende Strategie Open Fabric Datacenter. Das Spitzenmodell Black Diamond x8 kommt mit einem 20-TBit-Chassis und unterstützt blockierungsfrei bis zu 768 10-GBit/s-Ethernet-Schnittstellen oder 192 Schnittstellen für 40 GBit/s-Ethernet. Weil Daten über weite Strecken fließen müssen, interessiert sich inzwischen auch EMC für WAN-Optimierung. Der Storage-Anbieter hat, passend zu VPLEX Geo, einer Lösung, die Daten unter einer Oberfläche auf mehrere geografisch verteilte Rechenzentren distribuiert, die Silverpeak-Appliance im Programm. Damit lassen sich unterschiedliche WAN-Optimierungstechniken umsetzen, die das Datenvolumen verringern und den Transport beschleunigen.
LSI, eigentlich eher als Storage-Hersteller bekannt, will drei seiner Produkte, den LSI Axxia Netzwerkbeschleuniger, den Axxia Medienbeschleuniger und die WarpDrive SLP-300 Solid-State Beschleunigerkarte, zu einer Lösung für die schnelle Content-Auslieferung kombinieren. Auch die Telekom-Provider halten breitere Verbindungen vor. Telefonica offeriert seinen Kunden mit Hermes einen eigenen Dienst für den schnellen Transport von Massendaten bis in den Petabytebereich.
Fazit – das RZ der Zukunft
Cloud und Effizienzprobleme treiben die Standardisierung, Automatisierung und Kalibrierung von Rechenzentren rasant voran. Hinzu kommen neue Techniken zur Modularisierung und Kühlung des Data Center. Experten sind sich einig, dass diese Faktoren sowohl unternehmensinterne interne als auch von Dienstleistern betriebene RZs grundlegend verändern werden.
(Dieser Beitrag wurde von Computerwoche, einer Schwesterpublikation von ChannelPartner, übernommen / rb)