Wer Fehlinvestitionen vermeiden will, muss beim Kauf eines Rack-Servers einige grundlegende Dinge beachten. Dabei spielen Performance, Ausfallsicherheit, Erweiterbarkeit und das Management eine besonders wichtige Rolle. Welche Auswahlkriterien sonst noch relevant sind, verrät unser Ratgeber.
von Bernhard Haluschak (
TecChannel)
Um eine leistungsfähige IT in mittleren bis großen Unternehmen zu implementieren, müssen Entscheider bereits im Vorfeld einige wichtige Gesichtspunkte berücksichtigen. In der Regel kommen in solchen Projekten überwiegend Rack-Server zum Einsatz. Bei diesen Systemen ist der Aufstellungsort problematisch. Denn durch ihren Gehäuseformfaktor werden die Systeme in Racks installiert, die wiederum in speziell klimatisierten Räumen stehen. Um den Server-Raum möglichst effektiv auszunutzen, werden diese Server oft dicht gepackt in die Racks montiert. Daraus ergeben sich zahlreiche Probleme wie erhöhte Temperatur, ein hoher Energiebedarf auf kleinstem Raum und die damit verbundene Klimatisierung.
Darüber hinaus betreiben die IT-Abteilungen oft eine Vielzahl unterschiedlicher Rack-Server für unterschiedliche Anwendungen und von verschiedenen Server-Herstellern. Solch eine heterogene Umgebung stellt eine besondere Herausforderung für ein effizientes Systemmanagement dar. In diesem Zusammenhang spielt natürlich auch die Ausfallsicherheit von Rack-Servern eine große Rolle.
Diese ist davon abhängig, wie die IT-Abteilung diese Systeme konfiguriert hat und welche Anwendungen auf diesen Geräten laufen. Vor allem Technologien wie Virtualisierung und Cloud haben dabei einen hohen Stellenwert Auf jeden Fall muss vermieden werden, dass ein Systemausfall das Unternehmen arbeitsunfähig macht. Um solche Katastrophen zu vermeiden, sind Cluster-Lösungen oder komplexe IT-Infrastrukturen mit entsprechenden Managementfunktionen probate Mittel. Doch auch Rack-Server bieten in diesem Zusammenhang ein gewisses Maß an Hochverfügbarkeit und Ausfallsicherheit - wenn man bestimmte Hardwareaspekte beim Kauf dieser Systeme berücksichtigt.
Doch nicht nur der Schutz vor einem Ausfall ist beim Betreiben eines Rack-Servers wichtig, auch Kriterien wie das Management des Servers, die Energieeffizienz, die Erweiterbarkeit und nicht zuletzt der Service und der Support sollten einen gewissen Stellenwert beim Kauf eines Rack-Servers bekommen. So ist eine detaillierte und langfristige Planung inklusive der künftigen Einsatzszenarien eines solchen Systems unerlässlich, um die Investitionen optimal auszunutzen.
Update: Rechenleistung und Erweiterbarkeit
Da ein Rack-Server in der Regel die Steuerzentrale der Unternehmens-IT bildet, sollte dieser in puncto flexible Rechenleistung und Erweiterbarkeit mit Komponenten wie Storage, Netzwerk oder Hauptspeicher entsprechende Optionen bieten. In Bezug auf die Rechenleistung ist ein System mit einer aktuellen Dual-Socket-Lösung empfehlenswert. Dabei hat man die Möglichkeit, mit einer CPU zu starten und bei Bedarf das System mit einem zusätzlichen Prozessor zu erweitern.
Zusätzlich hat man auf der Prozessorseite die Option, die Rechenleistung jederzeit und je nach Bedarf nach oben zu skalieren. Hersteller wie AMD oder Intel bieten ein umfangreiches CPU-Portfolio an Serverprozessoren mit entsprechender Rechenleistung an. Allerdings muss man sich bereits im Vorfeld auf einen CPU-Hersteller und eine aktuelle Sockel- und Prozessortechnologie festlegen, da - technologisch bedingt - die Systeme nicht kompatibel zueinander sind.
Nach Expertenmeinungen von IDC und Gartner muss die IT dynamisch mit dem Unternehmen wachsen. Deshalb sollte der für die IT Zuständige diesen Aspekt in Bezug auf Erweiterbarkeit des Servers berücksichtigen. Das betrifft in erster Linie das Storage-Subsystem, die Steckkarten-Slots, die Hauptspeichersockel, die Netzteile sowie die Upgrade-Fähigkeit des Mainboards auf leistungsfähigere Prozessoren. Gerade die Hauptspeichererweiterbarkeit spielt eine zentrale Rolle, wenn es um Virtualisierungstechnologien geht, da diese sehr speicherintensiv sind. Hierbei bestimmt auch der Gehäuseformfaktor wie 1 HE, 2 HE oder 4 HE die Flexibilität in puncto Erweiterbarkeit.
Update: Das Storage-System
Ein Rack-Server sollte genügend Platz bieten, um ein ausreichend großes Storage-Subsystem zu beherbergen. Preiswerte Systeme nutzen für die Storage-Anbindung den integrierten Festplatten-Controller auf dem Mainboard. Dieser bietet in der Regel rudimentäre RAID-Funktionalität für Festplatten mit SAS oder SATA-Technologie.
Wer allerdings mehr Wert auf Storage-Performance, Ausfallsicherheit (RAS) und Flexibilität legt, sollte einen externen Storage-RAID-Controller mit kombinierter SAS/SATA-Funktionalität in Form einer Steckkarte verwenden. Dieser bietet die Möglichkeit, sowohl preiswerte SATA-Festplatten als auch teure SAS-Festplatten zu verwalten.
Letztere sind Pflicht, wenn bei Performance und Datensicherheit keine Kompromisse eingegangen werden können. Grundsätzlich sollte der Anwender bei einem Festplatten-Controller auf genügend Onboard-Speicher (Cache) achten, der über eine Batteriepufferung abgesichert ist. Damit lassen sich zusätzlich schnelle und sichere Write-Back-Zugriffe realisieren.
Für eine ultimative Storage-Performance sollte der IT-Verantwortliche neue technologische Wege beschreiten. Gerade in Serversystemen, die Datenbanken beherbergen oder als File- und Webserver fungieren, muss das Storage-Subsystem über möglichst kurze Latenzzeiten und eine hohe I/O-Performance verfügen. In diesem Umfeld sind SSDs erste Wahl, denn sie erfüllen all diese geforderten Kriterien. Darüber hinaus sind sie energieeffizienter, besitzen keine mechanischen Verschleißteile und sind zudem leicht gegen "normale" Festplatten auszutauschen.
Das einzige Manko ist der Preis, der zurzeit je nach Storage-Kapazität noch recht hoch ist. Die Standard-SSDs sind mit einer SATA-Schnittstelle ausgestattet, für die professionelle Klientel, die Wert auf Skalierbarkeit und Verfügbarkeit legt, gibt es mittlerweile auch Geräte mit SAS-Schnittstelle.
Darüber hinaus ist die Datenredundanz ein Vorteil entsprechender RAID-Konfigurationen. Sie ermöglicht dem System beim Ausfall einer oder mehrerer Festplatten, den Betrieb aufrechtzuerhalten und die Daten zu rekonstruieren. Mittlerweile bieten einige Hersteller proaktive Storage-Systeme an, die Daten auf eine freie Festplatte sichern, bevor ein Defekt auftritt. Möglich wird dies, indem die HDDs mittels Abfrage der SMART-Parameter ständig auf ihren "Gesundheitszustand" überprüft werden. Weitere Informationen über die RAID-Technologie erhalten Sie in unserem Artikel RAID im Überblick.
Update: Energieeffiziente und redundante Netzteile
Bei der Auswahl eines Rack-Servers hat der IT-Verantwortliche auf die Netzteile zu achten. Schon im Vorfeld muss die elektrische Leistung des Gesamtsystems inklusive möglicher Erweiterungen in das Kalkül einfließen. Auch die Energieeffizienz des Netzteils unter dem Aspekt Wirkungsgrad darf bei der Auswahl nicht vernachlässigt werden. In diesem Zusammenhang spielen die Energy-Star-5.0-Richtlinien und der damit ins Leben gerufene 80-Plus-Standard mit den Bronze-, Silber- Gold-, Platinum- und Titanium-Anforderungen eine wichtige Rolle.
Letzterer bezieht sich speziell auf die im Computer eingesetzten Netzteile. So fordern die Spezifikationen für die Stromversorgung zum Beispiel neben einem hohen Wirkungsgrad auch eine bessere Stromqualität sowie einen höheren Leistungsfaktor (PFC) der Netzteile. Das spart Energiekosten und kann sogar mögliche Systemausfälle durch die Netzteile vermeiden.
Eine der meistverwendeten redundanten Komponenten ist das Netzteil. Um in Rack-Servern Systemausfälle zu vermeiden, sollten in diesen Geräten mindestens zwei Hot-Swap-fähige Netzteile eingesetzt werden, die sich bei einem Ausfall innerhalb weniger Sekunden auswechseln lassen. Falls ein Netzteil ausfällt, übernehmen die übrigen Netzteile die Last komplett, sodass das System ohne Unterbrechung weiterarbeiten kann. Die einzelnen Netzteilmodule sind dabei hinten mit einer Netzteil-Backplane verbunden, die für das Management und die Stromverteilung der Netzteile verantwortlich sind.
Update: Ausfallsicherheit beachten
Durch redundante Komponenten beziehungsweise Hardware kann die Ausfallsicherheit eines Rack-Servers signifikant erhöht werden. Dies ist besonders wichtig, wenn unternehmenskritische Anwendungen auf dem Server laufen oder sich sensible Daten auf dem System befinden. Darüber hinaus erspart die Verwendung von Backup-Komponenten in einem Server vielen Anwendern die Anschaffung teurer komplizierter Cluster-Lösungen und stellt somit eine preiswerte Alternative dar.
Nicht nur das Storage-System und die Stromversorgung eines Rack-Servers lassen sich gegen einen Ausfall absichern, sondern auch der Hauptspeicher. So bieten viele Server-Chipsätze in Verbindung mit genügend Speichermodulen zum Beispiel die Spiegelung des Arbeitsspeichers (Memory Mirroring). Dabei steht dem System zwar nur die Hälfte der Speicherkapazität zur Verfügung, aber bei einem Arbeitsspeicherdefekt übernimmt der gespiegelte Speicher die Arbeit, wodurch ein Serverausfall vermieden werden kann. Neben der Memory-Mirroring-Funktion bieten einige Serversysteme auch die Möglichkeit, Hot-Spare-Memory zu nutzen. Bei diesem Verfahren steht dem Hauptspeicher des Servers während des Betriebes jederzeit ein unbenutztes DIMM-Modul als Backup zur Verfügung. Darüber hinaus bieten Technologien wie Advanced-ECC die Möglichkeiten, mehrere Speicherfehler auf Bit-Ebene zu erkennen und zu korrigieren.
Nahezu alle aktuellen Onboard-Netzwerk-Controller und Netzwerksteckkarten bieten eine einfache Möglichkeit der redundanten Netzwerkanbindung. Durch das sogenannte NIC-Teaming kann man mehrere Netzwerkkarten zu einer logischen zusammenschließen. Dadurch erreicht man eine höhere Performance sowie eine zusätzliche Ausfallsicherheit (Failover). Sollte eine Netzwerkkarte ausfallen, übernehmen die anderen die Anbindung des Servers an das Netzwerk.
Auch die Lüfter beziehungsweise die Kühlung eines Systems kann redundant ausgelegt sein. Dabei sind mehrere Lüfter für den Luftstrom im Gehäuse und somit für die Kühlung verantwortlich. Fällt einer aus, so übernehmen die anderen die Kühlung. In vielen Systemen werden beim Ausfall eines Lüfters die anderen Lüfter automatisch mit erhöhter Geschwindigkeit betrieben, um für den nötigen Luftstrom zu sorgen.
Netzwerkanbindung richtig planen
Die Kommunikation des Rack-Server nach außen ist essentiell. Aktuell gehört die Gigabit-Ethernet-Verkabelung und das IPv4- beziehungsweise IPv6-Protokoll zum Standard. Doch bei der Neuanschaffung von Hardware ist eine Unterstützung von IPv6 jetzt Pflicht.
Durch den steigenden Virtualisierungsgrad und Cloud-Computing-Technologien geraten die Datennetze an ihr Bandbreitenlimit, sodass eine zukunftsweisende Netzwerkplanung notwendig ist. Viele Unternehmen rüsten bereits ihr Netzwerk auf 10 GbE oder sogar schon auf 40 GbE um oder haben dies bereits getan. Die Rack-Server sollten dafür bereits vorbereitet sein. Dies kann im einfachsten Fall durch eine PCIe-Erweiterungssteckkarte erfolgen, oder der Server bietet bereits einen dedizierten Steckplatz für entsprechende Mezzanine-Netzwerksteckkarten an.
Für eine schnelle Storage-Anbindung auf Basis von SAN- oder NAS-Systemen ist ein Interface mit iSCSI oder FCoE ratsam. Auch hierbei sollte ein Upgrade auf 10-Gbit-Ethernet bereits berücksichtigt werden. Je nach IT-Infrastruktur und Komplexität des Netzwerkes sollte auch die PoE-Technologie mit in die Planung einfließen. Die entsprechenden Netzwerkkomponenten sollten dann den Standard IEEE P802.3at-2009 unterstützen.
Update: Serverklimatisierung und Lärmentwicklung
In der Regel ist der Lärm, der von Rack-Servern produziert wird, kein Problem. Denn die Systeme sind in der Regel in eigens optimierten, klimatisierten Serverräumen untergebracht, sodass die Mitarbeiter von ausgehenden Emissionen nichts mitbekommen. Doch auch hier muss der IT-Administrator einige wichtige Aspekte beachten. Denn ein falsch dimensionierter Rack-Server in einem Serverschrank kann zu Klimaproblemen bis hin zu Ausfällen der Systemhardware führen.
Die technisch maximale Kühlleistung pro Rack wird begrenzt durch die Fähigkeit des umgebenden Raums, ausreichend Kühlluft zu den Frontseiten der Racks zu bringen und die Warmluft von den Rückseiten abzuführen. Die Warmluft wird dabei aus dem Serverraum zu den meist an der Peripherie der Rechenzentrumsfläche aufgestellten Umluftkühlsystemen zurückgeführt. Bewährt hat sich in Rechenzentren die Aufstellung der Server-Racks in der Kaltgang-Warmgang-Anordnung mit Doppelboden. Dabei wird die gekühlte Luft von den Umluftkühlaggregaten unter den Doppelboden gepumpt, dort durch Luftführungen verteilt und über gelochte Bodenplatten in die kalten Gänge der Racks geblasen. Mit dieser Anordnung lassen sich maximal 3 bis 5 Kilowatt Kühlleistung pro Serverschrank abführen.
Dies ist nur ein Beispiel für eine mögliche Klimatisierung. Je nach Anzahl der Serversysteme und der jeweiligen Örtlichkeiten sind aber auch andere Klimatisierungsoptionen möglich, die zudem noch kostengünstiger sein könnten. Eine Prüfung der Klimatisierungsanforderungen im Vorfeld durch eine Fachfirma kann spätere böse Überraschungen vermeiden und somit Kosten sparen.
Update: Servermanagement spart Administrationskosten
Für die einfache Administration eines Rack-Servers sollte beim Kauf darauf geachtet werden, dass dieser mit einem sogenannten Baseboard Management Controller (BMC) ausgestattet ist. Dieses Zusatz-Feature ermöglicht die Administration des Systems aus der Ferne. Damit muss der Systemverantwortliche bei einem Serverproblem nicht mehr persönlich anwesend sein, sondern kann jederzeit ortsunabhängig auf das System zugreifen.
Der BMC erlaubt dem Anwender, sich über einen externen Rechner direkt auf dem Server einzuloggen. Somit genießt der Nutzer den Komfort, als würde er direkt vor dem Server mit der grafischen Arbeitsoberfläche sitzen. Mit diesem Feature lässt sich die Administration auch an einen externen Servicepartner vergeben, wenn kein entsprechendes IT-Know-how im Unternehmen vorhanden ist. Darüber hinaus halten sich die Kosten für eine solche Erweiterung in einem moderaten Rahmen.
Neben einer Hardwarelösung sollte der Anwender auch eine entsprechende Managementsoftware nutzen. Diese ist in der Lage, die Serverplattform inklusive möglicher virtueller Systeme von einem zentralen Punkt aus zu verwalten, zu steuern und zu überwachen. Damit lassen sich komplexe Verwaltungsvorgänge vereinfachen und die Nutzung kritischer Ressourcen wie CPU, Arbeitsspeicher oder Storage optimieren.
Ob im kleinen oder im großen Rack-Verbund, zusätzliche Überwachungshardware wie Status- oder Diagnose-Panel am beziehungsweise im Server sind immer von Vorteil. So können Techniker schnell und unkompliziert vor Ort eine erste Analyse durchführen und eventuelle Probleme beseitigen.
Eine zusätzliche Entlastung bei der Administration bietet zum Beispiel ein Lifecycle-Management-Controller, der alle relevanten Daten über die gesamte Betriebszeit des Servers sammelt und sogar sämtliche Installationsroutinen beziehungsweise Treiber beinhaltet. Auch bei der Konfiguration und beim Patching des Servers unterstützt diese Technologie den Administrator. Der Lifecycle Controller besteht aus einen nicht flüchtigen, in das System integrierten Speicher, über den die Verwaltungsfunktionen auf dem Server laufen.
Service und Support
Ein Rack-Server in einem kleinen Unternehmen muss in der Regel seinen Dienst rund um die Uhr verrichten (7 x 24) und bildet gleichzeitig einen Single Point of Failure. Fällt das Gerät aus, funktioniert die gesamte Unternehmens-IT nicht mehr. Das würde unter Umständen hohe Kosten verursachen, wenn der Fehler nicht binnen kurzer Zeit behoben wird.
Sinnvoll ist in diesem Fall, einen Service und Support-Vertrag mit einem Systemhaus abzuschließen. Das ist besonders wichtig, wenn im Unternehmen kein entsprechendes IT-Know-how vorhanden ist. Aber auch hier sollte im Vorfeld ein Anforderungsprofil festgelegt werden, um die Kosten gering zu halten. Denn je nach Einsatzgebiet sind nicht immer eine Rund-um-die-Uhr-Betreuung und eine Ausfallsicherheit von 99,99 Prozent sinnvoll. Eine entsprechende Kosten-Nutzen-Analyse kann über diesen Sachverhalt Klarheit verschaffen.
Auch das Auslagern von Nicht-Mission-Critical-Anwendungen vom Server in die Cloud sollten IT-Verantwortliche in Betracht ziehen. Das spart Management- beziehungsweise Serviceaufwand für die Hardware und somit Kosten.
Update: Fazit
Wer einen Rack-Server für sein Unternehmen kaufen will, sollte sich bereits im Vorfeld über die entscheidenden Auswahlkriterien Gedanken machen. Das erspart später viel Ärger und unnötige Mehrkosten. Wichtige Auswahlaspekte bei der Rack-Server-Hardware sind vor allem die Performance, die Skalierbarkeit und die Flexibilität sowie der Platzbedarf beziehungsweise der Standort des Systems. Gerade in Bezug auf Technologien wie Virtualisierung und Cloud sind diese Gesichtspunkte ausreichend zu berücksichtigen.
Ein besonderes Augenmerk sollte der IT-Verantwortliche aber auch auf die Ausfallsicherheit des gewünschten Systems legen. Hier bieten die Server vielfältige Technologien für alle kritischen Komponenten an. Dazu zählen die Energieversorgung, das Storage-System, die Netzwerkanbindung, der Hauptspeicher oder die Klimatisierung.
In diesem Zusammenhang sind der Service und der Support des Server-Lieferanten ebenfalls zu berücksichtigen, da kurze Reaktionszeiten auf einen Server-Ausfall die Produktivität erhöhen und somit Kosten sparen. Darüber hinaus bieten die Server-Hersteller Managementmöglichkeiten in Form von BMCs oder anderer entsprechender Software an, die die Verwaltung und die Pflege des Systems vereinfachen. Damit ist ein umfassendes IT-Know-how für bestimmte Administrationsaufgaben nicht immer zwingend notwendig.
(Der Beitrag wurde von der CP-Schwesterpublikation TecChannel übernommen / rb)