Wer beim Bremischen Rechenzentrumsanbieter b.r.m. die Server sucht, sieht in dem 360 Quadratmeter großen und sieben Meter hohen Loft nur einen großen orangenen Quader mitten in der Fabriketage stehen. Er enthält die gesamte Rechenpower des Unternehmens - sechs Racks mit Servern und Storage - und ist gleichzeitig die Heizung. Während andere ihr Data Center noch immer auf erkältungsfördernden 17 Grad Celsius halten, herrschen in dem Quader mit den Rigips-Wänden eher tropische 35 Grad Celsius. Kühlung braucht der Rechnerraum deshalb unter 27 Grad Außentemperatur nicht.
Bis zu Außentemperaturen von minus sieben Grad Celsius heizt das Rechenzentrum, von dem die Warmluft oben mit einer schallgedämmten Lüftungsanlage abgesaugt wird, den gesamten Loft, wenn es kälter wird, helfen Heizkörper, die beim Einzug belassen wurden. Wird es draußen zu heiß, kühlt eine Split-Klimaanlage die Rechner. Das war aber bisher kaum nötig, betont Harald Rossol, Geschäftsführer von b.r.m. Bei Split-Klimageräten arbeiten mindestens ein Außen- und ein Innengerät zusammen. Dazwischen zirkuliert ein Kältemittel.
Ausfälle? Fehlanzeige. "Wir achten sehr genau darauf, wie wir die Luft durch die Geräte führen. Deshalb ist es zwar sehr warm, aber es gibt keine Hotspots", erklärt Rossol. Dafür wird an jedem Server die Temperatur gemessen. Einen Doppelboden hat die Anlage nicht, das wäre bei den baulichen Voraussetzungen schwierig geworden. Lohn der Innovation: 65 Prozent weniger Stromverbrauch. Um den Rest teilweise selbst zu erzeugen, will b.r.m. demnächst auf dem Dach Solarzellen installieren. Ihr beträchtliches Klima-Know-how vermarkten er und fünf Kollegen mittlerweile über das neu gegründete Beratungshaus erecon.
RZ der Heinrich-Böll-Stiftung kühlt CO2-frei
Bei der Heinrich-Böll-Stiftung in Berlin machte man anlässlich des Neubaus der Zentrale in Berlin ebenfalls gleich Nägel mit Köpfen. "Wir kühlen ohne Strom und daher CO2-frei", sagt RZ-Leiter Bert Bloß stolz. Auch hier dient das Rechenzentrum als Heizaggregat. Kombiniert mit einem gut gedämmten Niedrigstenergiebaukonzept und einer Fußboden-Niedertemperaturheizung reicht der Output des wassergekühlten Rechenzentrums für die Erwärmung des Heizkreislaufs aus. Das Data Center wird mit 25 bis 27 Grad Temperatur betrieben, das Kühlwasser läuft mit 23 Grad ins Rechenzentrum und verlässt es mit 30 Grad. Verdunstungskühler kühlen Rechner und Büroräume im Sommer, fallen diese Kühler aus, wandert die Abwärme direkt per Konvektion in die Räume und kann daher kaum Schaden anrichten. "Deshalb ist unser System sogar sicherer als eine Kompressionskühlung", betont Bloß, der derzeit ständig neue Besuchergruppen durch RZ und Haus führen muss. Damit die Wasserkühlung an den Rechnern kennen Schaden anrichtet, wird das Wasser in Rohren und Schläuchen im untersten Bereich der Schränke geführt. Mit einem solchen System lässt sich auch die Wärme dezentraler Wärmequellen, etwa von Wiring Centers oder VoIP-Anlagen abführen. "Derzeit wird unser Konzept in Berlin an anderer Stelle dreimal so groß kopiert", freut sich Bloß - in einem Konferenzzentrum mit Hotel.
Günstig trotz längerer Amortisationszeit
Der IT-Betrieb der WWK-Versicherungen a.G. in München stand vor sechs Jahren vor der Aufgabe, ein Spiegel-Rechenzentrum zu implementieren, allerdings gab es ein Platzproblem. Eine Senkung der Stromkosten gehörte zu dieser Aufgabe. "Unser Ziel bis 2013 ist, dass die Stromkosten für die Klimatisierung nur noch zehn Prozent der RZ-Betriebskosten ausmachen", sagt Josef Feichtmair, Leiter Betriebstechnik der WWK-Versicherung in München. Das Primär-Rechenzentrum mit insgesamt 120 HP-ProLiant-Servern, davon einer Superdome Itanium, sowie rund 75 TByte Speicher ist 280 Quadratmeter groß und wird durch konventionellen CRAC (Computer Room Air Conditioner) klimatisiert. 33 Prozent des Energieverbrauchs fließen dort in die Kühlung.
Im gespiegelten Rechenzentrum sollten neue Technologien eingesetzt werden. Deshalb entschloss sich die WWK für wassergekühlte Racks. Trotz höherer Investitionen für Server-Schränke und deren Infrastruktur konnten Platzbedarf und Energieverbrauch deutlich reduziert werden. Feichtmair rechnet mit einer Amortisationszeit von sieben Jahren. Außerdem sind in diesem Rechenzentrum jetzt wieder genügend Platzreserven vorhanden.
Die Zukunft liegt darin, nicht mehr den Raum, sondern nur noch den Server-Einbauschrank zu kühlen. "Heute ist praktisch der Schrank das Rechenzentrum", sagt er. Zudem nutzt die WWK bereits heute 75 Prozent der Rechenzentrenabwärme für die Gebäudeheizung. In Zukunft ist eine 100 prozentige Nutzung der Abwärme geplant.
Mehr Platz im RZ dank Wasserkühlung
Ein ähnliches Konzept, basierend auf Technologie von Rittal, nutzt Leitz, ein Stuttgarter Hersteller von Werkzeugmaschinen für die Holzbearbeitung. Das Unternehmen mit 3500 Mitarbeitern entschloss sich aus Kapazitätsgründen für die Einrichtung eines neuen, zweiten Data Center. "Da sollte es auf jeden Fall neue Technik sein", berichtet Roland Berndt, der als Administrator für die Implementierung des Kühlsystems zuständig war. Also entschied man sich wie üblich für die Server-Virtualisierung und - weniger üblich - für Liquid Cooling Packets von Rittal. Diese Packages stehen jeweils zwischen zwei Serverschränken, die sie auf der Vorderseite mit 25 Grad warmer Luft versorgen. Die Abluft, die auf der Rückseite aus dem Server-Rack abgesaugt wird, hat 42 Grad Celsius. Die Abwärme will Leitz später über eine Adsorptionskühlung nutzen. Der Energieverbrauch hat sich gegenüber dem ersten Rechenzentrum um 80 Prozent verringert. Alle kritischen Systeme - etwa 50 bis 60 Server und 10 TByte Speicher, wurden mittlerweile in das neue RZ migriert. Um das alte Rechenzentrum ebenfalls entsprechend umzurüsten, ist momentan kein Geld da. Doch geplant ist das auf jeden Fall. Über die Investitionskosten möchte Berndt nicht reden.
"Der Wasserkühlung im Rack oder in einem Teil des Rechenzentrums gehört die Zukunft", meint Christian Zilch, Vorstand des Beratungsunternehmens Experton Group. Die Zeit des hemmungslosen Hochtaktens von Prozessoren mit entsprechender Hitzeerzeugung sei zwar vorbei, dafür schreite die Miniaturisierung und damit die Verdichtung im Rack weiter voran. Es bleibe also die Notwendigkeit, Wärme abzuführen. Für neue Kühlkonzepte mit Wasserkühlung oder Wärmetauschern sieht er einige Hindernisse: "Maßnahmen lassen sich nur über Amortisierung verkaufen", weiß er. "Wärmetauscher und Anschlüsse kosten aber einiges, zudem steht die Wärme aus dem Rechenzentrum eher im Sommer zur Verfügung statt im Winter." Dagegen freilich können altbekannte, aber selten praktisch genutzte Technologien wie die Adsorptionskühlung helfen, bei der Wärme in Kälte umgewandelt wird. Doch hier stehen Industrie und Anwender noch ganz am Anfang.
Kühle Räume durch Thin Clients
Aber es gibt auch innovative Kühlkonzepte ohne Wasser. Für eines wurde bereits im Oktober 2009 das Münchner Medizintechnikunternehmen ResMed GmbH & Co.KG von der Deutschen Umwelthilfe als ecoIT-Projekt des Monats ausgezeichnet. Bei dem Unternehmen heizten die 400 Arbeitsplatzrechner die Büroräume derart auf, dass schon eine Klimaanlage installiert werden sollte. Stattdessen entschloss sich das Unternehmen kurzerhand, die Arbeitsplätze zu virtualisieren und mit Thin Clients von Sun auszurüsten. Dem steht keine entsprechende Wärmeerzeugung im Rechenzentrum gegenüber.
ResMed gibt an, 36 MWh Strom jährlich durch die Umstellung von bisher 160 Arbeitsplätzen zu sparen, nicht gerechnet die nun überflüssige Klimaanlage. Der Rest der Arbeitsplätze soll nun folgen. Auch hier bleibt das Investitionsvolumen im Dunkeln. Geht man allerdings davon aus, dass ResMed Industriestrom für acht Cent pro kWh verbraucht, dann spart die Firma pro Jahr etwa 3000 Euro Stromkosten. Verwendet sie dagegen Endverbraucherstrom, dürften die Kosten pro Jahr etwa doppelt so hoch liegen. Dem stehen wahrscheinliche Kosten pro Thin Client von mehreren Hundert Euro gegenüber. Allerdings muss man die erheblichen initialen und laufenden Kosten einer Klimaanlage einkalkulieren, wodurch sich das Ganze mittelfristig wohl rechnet.
Checkliste Stromsparen im RZ
Wenn das Rechenzentrum zu viel Strom verbraucht, muss nicht gleich ein neues her. Schon kleine Maßnahmen mit geringem oder keinem finanziellen Aufwand können viel bewirken. Eine Checkliste:
-
Racks gehören in Reihen, nicht kreuz und quer: Die Vorderseiten zueinander, die Rückseiten zueinander. Nur so ist die Trennung warmer und kalter Luftströme und damit eine Klimatisierung möglich.
-
Kabelwürste vor dem Lüfter machen das beste Klimatisierungskonzept zunichte. Kabel müssen direkt nach dem Austritt aus dem Gerät mittels Kabelführungen seitlich abgeführt und gebündelt werden, so dass sie zu- und abfließende Luftströme nicht behindern.
-
"Löcher" an unbestückten Einschüben im Rack sind verboten! Solche Lücken unbedingt verblenden, weil sie sonst die Ströme erwärmter und abgekühlter Luft durcheinander bringen.
-
Alle Geräte in einem Rack brauchen ausnahmslos dieselbe Lüftungsrichtung. Sonst ist jede effiziente Klimatisierung zum Scheitern verurteilt. Racks entsprechend bestücken und beim Gerätekauf auf Lüftungsrichtung achten.
-
Kabelrollen gehören nicht in den Doppelboden und wenn, dann nicht quer zur Richtung des Luftstroms! Kabel muss im Doppelboden so verlegt werden, dass es den Luftstrom keinesfalls behindert.
-
Fehlende Bodenplatten sofort ersetzen! Geschlossene Bodenplatten nur da öffnen oder durch Platten mit Lüftungslöchern ersetzen, wo die kühle Luft benötigt wird und sonst nirgends. Alles andere zerstört die Lüftungseffizienz.
-
Temperatur hoch! Es ist absolut unnötig, das RZ auf unter 25 Grad Celsius zu halten. Hot Spots lassen sich mit den oben beschriebenen Maßnahmen und sorgfältiger Luftführung weitgehend vermeiden. Fährt man das RZ wärmer, wird es in unseren Breiten häufig möglich sein, auf gekühlte Luft ganz zu verzichten und zumindest zeitweise auf Freikühlung überzugehen. Pro Grad mehr im RZ sinkt der Kühlenergiebedarf um 1 bis 2 Prozent.
-
Um in die Kalt-/Warmgangtechnik einzusteigen, muss es nicht gleich teure Technik sein. Erste Erfahrungen lassen sich durchaus auch sammeln, indem die Luftmassen zum Beispiel durch vom Metzger bekannte Plastikvorhänge mit Klettverschluss oder Sperrholzwände abgegrenzt werden. Das kann zu den oben versprochenen 15 Prozent nochmals zehn bis 15 Prozent Einsparung bringen.
European Code of Conduct für Rechenzentren
Wer die Energieeffizienz seines Rechenzentrums stetig verbessern und sich dabei mit anderen austauschen möchte, kann kostenlos dem European Code of Conduct for Data Centres beitreten. Ganz umsonst ist das freilich trotzdem nicht, denn eine Grundvoraussetzung des Beitritts ist, dass das jeweilige Rechenzentrum Messmöglichkeiten für Stromverbrauchs- und Temperaturmessungen implementiert.
Wer zum Code of Conduct gehört, verpflichtet sich, mit Hilfe von Maßnahmen aus einem umfangreichen und vielfältigen Katalog die Energieeffizienz des beigetretenen RZ stetig und nachvollziehbar zu verbessern und regelmäßig zu berichten, was ebenfalls Aufwand erfordert. Am Anfang geht es dabei um eher Banales: grundlegende Messtechnik eben oder aber die auch aus dem Privatbereich bewährte Regel "Licht aus, Tür zu!", um Energie zu sparen. Hier sollen vor allem die Einstiegshürden gering gehalten werden.
Dabei bleibt es natürlich nicht, Schritt für Schritt kommen komplexere Maßnahmen dazu. Jeder entscheidet aber selbst, was wann umgesetzt wird. Nur stehen bleiben dürfen die Bemühungen nicht. Die erzielten Einsparungen, die durchgeführten Maßnahmen und der Stromverbrauch werden in regelmäßigen Abständen an das Büro des Code of Conduct gemeldet, das den Eifer seiner Mitglieder durch ein Zertifikat belohnt. Dieses können die Mitglieder für die Eigenwerbung benutzen. Außerdem berät das Büro des Code of Conduct seine Mitglieder darüber, wo im individuellen Fall sinnvoll anzusetzen ist. Verglichen mit teuren kommerziellen RZ-Evaluierungen, wie sie Verbände, Unternehmen oder der TÜV anbieten, eine erwägenswerte Alternative, das eigene RZ auf Energieeffizienz zu trimmen.
Hersteller können dem Code of Conduct ebenfalls beitreten, allerdings nur beratend. Alle Informationen einschließlich einer Liste der derzeitigen Mitglieder finden sich hier. (wh)