Die Liste der Anforderungen, die ein modernes Rechenzentrum erfüllen soll, wird immer länger: Es soll weniger Energie verbrauchen und sich kostengünstiger betreiben lassen, das jedoch möglichst ohne Abstriche in Bezug auf die Leistungsfähigkeit. Es soll sich problemlos an geänderte Anforderungen anpassen lassen, ein hohes Maß an Sicherheit für Anwendungen und Daten bieten, jedoch offen für Cloud-Computing-Services sein.
Kein Wunder, dass sich ein modernes Data Center kaum noch mit einem typischen "Glashaus" vergleichen lässt, wie es vor zehn oder fünfzehn Jahren errichtet wurde. Heute sind Faktoren gefragt wie hohe Modularität, eine möglichst effiziente Nutzung der Energie und die Möglichkeit, unterschiedliche Datenverkehrsarten über eine einheitliche Infrastruktur zu transportieren, Stichwort Konvergenz.
Konventionell, modular oder im Container: Die Struktur eines Data-Centers
Vor allem in US-amerikanischen Rechenzentren taucht immer häufiger der "Pod" auf. Statt nach bewährtem Muster Racks mit Servern sowie Speicher- und Netzwerksystemen in einem Data Center zu platzieren, greifen immer mehr Unternehmen zum "Data Center im Container". Anbieter solche Systeme sind unter anderem Cisco Systems, Hewlett-Packard, i/o Data-Centers und Oracle/Sun. Solche "Pods" sind komplette Data-Center, inklusive IT-Ausrüstung, Kühlung und Stromversorgung.
Der größte Vorteil des Konzepts: Wer mehr Rechenleistung benötigt, kann weitere Container ordern und damit das "Rechenzentrum" erweitern. Microsoft setzt in seinem Data-Center in Dublin (Irland) auf ein solches "Pod"-Konzept, in Verbindung mit der Kühlung durch Außenluft. Container wie der ecoPod von HP haben Platz für 44 Rack sund bis zu 4400 (virtualisierte) Server. Die Energieeffizienz (PUE, Power Usage Effectiveness) liegt bei 1,05. Zum Vergleich: Standard-Data-Center kommen auf 1,7 bis 2,0 PUE.
Folgende Entwicklungen werden nach Einschätzung von Emerson Network Power, einem Hersteller von Komponenten für Rechenzentren, die Entwicklung im Data-Center in den kommenden Jahren prägen:- Eine deutliche höhere Dichte von Systemen:
Die Wärmeleistung pro Rack steigt demnach im Schnitt von etwa 11 Kilowatt im laufenden Jahr und bis auf 17 kW im Jahr 2019. Durch die höhere Packungsdichte benötigen solche Rechenzentren etwa 35 Prozent weniger Energie. Hinzu kommen Einsparungen durch den geringeren Platzbedarf. Ein Data Center mit etwa 800 Quadratmetern und einer Wärmeleistung von 20 kW pro Rack wird in wenigen Jahren dieselben Leistungswerte erreichen wie heute ein Rechenzentrum mit 3000 Quadratmetern. Die Einsparungen, bezogen auf die Baukosten, betragen in diesem Fall etwa zwischen 700.000 Euro und rund 2 Millionen Euro. <br /><br /> Allerdings erfordert die wachsende Rechenleistung pro Rack spezielle Kühlungs- und Stromversorgungssysteme. Notwendig ist eine Kombination von Kalt-/Warmgang-Konzepten in Verbindung mit Wasserkühlung und mit modularen "Power Distribution Units" (PDUs) im Rack. Dadurch lässt sich der Energiebedarf der Systeme pro Rack um etwa ein Drittel senken. - Verfügbarkeit gewinnt an Bedeutung:
Die Anforderungen an die Verfügbarkeit von Rechenzentren und den IT-Services, die über sie bereitgestellt werden, nimmt drastisch zu. Amazon beispielsweise garantiert für seinen Cloud-Computing-Service "Elastic Compute Cloud" (EC2) eine Verfügbarkeit von 99,95 Prozent. Das heißt, die Ausfallzeit pro Jahr darf 4,5 Stunden nicht überschreiten. <br /><br /> Ein Großteil der Systemausfälle in Data Centern geht laut Emerson Network Power auf Ausfälle der Stromversorgung oder Probleme mit der Kühlung zurück. Deshalb gewinnen unterbrechungsfreie Stromversorgungen an Bedeutung – auch deshalb, weil sie Spannungsspitzen ausfiltern und von Servern, Switches und Storage-Systemen fernhalten. <br /><br /> Ein weiterer Faktor, der die Anfälligkeit von Rechenzentren senkt, ist eine Verringerung der Zahl aktiver Komponenten in Kühlsystemen. Dies lässt sich beispielsweise durch eine verstärkte Kühlung mithilfe von Außenluft erzielen. Sie macht zumindest einen Teil der Lüfter, Gebläse und Pumpen innerhalb eines Data-Centers überflüssig. - Flexibilität ist ein zentraler Faktor:
Rechenzentren müssen stärker denn je mit Lastspitzen zurechtkommen. Auch diese Entwicklung wird durch Cloud-Computing forciert: Handelshäuser werden beispielsweise in der Vorweihnachtszeit Rechenkapazitäten hinzubuchen, in den Sommermonaten dagegen die Nachfrage reduzieren. Das heißt für Server, Stromversorgungssysteme und Klimaanlagen: Sie müssen ihre Leistung an die Nachfrage anpassen. Das war bislang nicht der Fall, speziell bei der Kühlung und Stromversorgung. Diese Systeme laufen in vielen Rechenzentren stets unter Volllast, was sich negativ auf die Kosten auswirkt. Modulare Stromversorgungen und Kühlsysteme, die sich automatisch an Veränderungen der Umgebungstemperatur anpassen, können dieses Problem lösen. - Managebarkeit gewinnt an Bedeutung:
Die Komplexität von Rechenzentren nimmt weiter zu, bedingt durch Virtualisierung, immer leistungsfähigere Server mit Mehrkernprozessoren und die angesprochene höhere Systemdichte. Die Konsequenz: IT-Verwalter benötigen Management-Tools, mit denen sie die Komponenten überwachen und steuern können. Das gilt nicht nur für aktive Komponenten, sondern auch für die Verkabelung und die Akkus von unterbrechungsfreien Stromversorgungen. Ein Infrastruktur-Management-System muss in Echtzeit Statusmeldungen übermitteln und dem Systemverwalter dabei helfen, bereits im Vorfeld Ausfälle von Geräten zu erkennen. <br /><br /> Ein weiterer Punkt, der häufig übersehen wird: Management heißt im Data Center auch das Verwalten des Raums, der für Racks und andere Komponenten zur Verfügung steht. Planungstools wie etwa Nlyte 6.0 von Nlyte helfen dabei, das Platzangebot optimal auszuschöpfen.
Ein weiterer Ansatz sind modulare Rechenzentren, die auf Standardkomponenten basieren, etwa das "Butterfly"-Konzept von HP. Bei ihm werden vorfabrizierte Module mit Racks für Server, Speichergeräte, Stromversorgung und Kühlsysteme nach Bedarf um ein zentrales Versorgungsmodul gruppiert. Wird mehr Rechenleistung benötigt, lassen sich weitere "Schmetterlinge" in einem Gebäude platzieren. Der PUE-Wert solcher modularer Data-Center liegt bei etwa 1,15.
Beide Konzepte – Pods und modulare Data-Center – werden an die Stelle klassischer Ansätze treten. Die Vorteile wie hohe Flexibilität und Effizienz sowie laut Hersteller um bis zu 75 Prozent niedrigere Betriebskosten machen solche Ansätze für viele Anwender interessant.