Obwohl weitgehend Einigkeit darüber herrscht, dass unternehmenskritische Daten digital und physisch in der eigenen Firma bleiben sollten, profitieren viele Workloads von der Performanz einer Public Cloud. Aller Voraussicht nach wird diese durch die niedrigen Einstiegshürden und gebrauchsfertige Pay-As-You-Go-Lösungen in der Symbiose mit firmeneigenen Rechenzentren weiter an Relevanz gewinnen. Die Zukunft des Rechenzentrums ist klar hybrid. Umso wichtiger ist es, Rechenzentren für diese Zukunft fit zu machen, denn die Herausforderungen sind zahlreich: Steigende Datenmengen, gestiegene Ansprüche in Sachen Verarbeitungs- und Übertragungsgeschwindigkeiten und nicht zuletzt Themen wie Datenschutz, Platzbedarf und Umweltschutz.
Lesetipp: Alles zum Thema "Data Center"
Dabei haben sich die Prioritäten von der Hard- zur Software-Seite verlagert. Dies lässt sich auch an der Anbieter-Landschaft ablesen: Von den in den letzten Jahren neugegründeten Herstellern im Data Center-Sektor zählt der Großteil zu den Software-Anbietern. Für (IT-)Verantwortliche bedeutet dies, dass die Auswahl geeigneter Data Center-Lösungen sich stark von einem technischen zu einem strategischen Thema wandelt. Doch was sind die Hintergründe dieser Entwicklung und wie findet man sich in der neuen, von Software bestimmten Data Center-Welt zurecht?
Bäumchen wechsle dich!
Trends kommen und gehen. Über vier Jahrzehnte in der IT-Branche haben mich die Wahrheit hinter dieser Binsenweisheit gelehrt - heiß gehandelte Neuheiten verschwinden schon nach kurzer Zeit und totgesagte leben länger. War es die längste Zeit Naturgesetz, dass Rechenzentren mit Hohlböden konstruiert wurden, wird darauf seit neuestem - auch aus Kostengründen und der leichteren Wartung von deckenmontierten Kabeltrassen wegen - verstärkt verzichtet. Dagegen scheint das Ende des Bandspeichers in weiter Ferne zu liegen. Dennoch sprechen drei langfristige Entwicklungslinien für die eingangs aufgestellte These vom zunehmend strategischen Thema des Software-definierten Rechenzentrums:
1. Rechenzentren werden im Hinblick auf Wartung und Betrieb immer einfacher
Früher brauchte es für alle Aufgaben im Rechenzentrum eigene Spezialisten: für Backups, Storage, usw. Diese mussten für ihre Aufgabenbereiche tage- und wochenlang geschult werden. Jeder Ausfall eines Mitarbeiters konnte bei Projekten häufig den kompletten Stillstand bedeuten. Mit den modernen, wesentlich intuitiver zu bedienenden und weniger wartungsanfälligen Systemen sind all diese Prozesse massiv vereinfacht. Zudem sind die Wartung und Diagnose von Rechenzentren zunehmend automatisiert. Moderne Rechenzentren erkennen bereits vorausschauend, wann eine Komponente ausfällt. Meldet beispielsweise eine SSD gehäuft Lese- oder Schreibfehler, wird das nahende Ende der Festplatte automatisch gemeldet und Ersatz geordert. Alles was dann noch zu tun bleibt, ist, das Bauteil mittels Plug&Play auszutauschen - ganz ohne Downtime oder Schrauben.
2. Rechenzentren werden immer effizienter und ressourcenschonender
Im Jahr 1952 speicherte eine schrankgroße IBM 726 noch ein MB mit 100 Bits pro Zoll in 9 Spuren je Zoll auf 330 Meter Band. Heute passt auf eine handtellergroße SSD ein Vielfaches, bei damals noch unvorstellbaren Lese- und Schreibgeschwindigkeiten. Storage ist nur eines von vielen Themen im Rechenzentrum, verdeutlicht den Punkt der Effizienz jedoch besonders eindrücklich. Was früher auf vielen Quadratmetern Fläche untergebracht war, schrumpft auf wenige Höheneinheiten in einem einzigen Server-Schrank zusammen. Es wird intensiv daran gearbeitet, die Ökobilanz von Rechenzentren zu verbessern,im Hinblick auf Platzbedarf, Energie- und Wasserverbrauch und vieles mehr. Gleichzeitig steigt mit dem fast exponentiell wachsenden Bedarf an Rechen-Power auch der Anteil am weltweiten Energieverbrauch.
3. Rechenzentren orientieren sich immer stärker am Nutzer
Wegen der weit fortgeschrittenen Standardisierung und der Abstraktion der Hardware durch Virtualisierung, rücken die technischen Details der Komponenten in den Hintergrund. Initiativen wie OCP (Open Compute Project), an denen sich alle großen Hersteller beteiligen, treiben die Standardisierung von Rechenzentrums-Hardware weiter voran. Hardware ist im Rechenzentrum immer mehr notwendiges Standardprodukt, aber nicht mehr zentraler Fokus. Heutzutage sind die modularen Systeme in alle Dimensionen skalierbar. Wo früher z.B. der Speicher knapp werden konnte oder die Performanz nicht mehr ausreichte, lässt sich heute die Kapazität in jeder Hinsicht einfach erweitern, wiederum ohne Stillstand.
Erkenne dich selbst (und die passende Lösung): Wie man sich in der neuen Data Center-Welt zurechtfindet
Wenn Strategie beim Thema Data Center immer wichtiger wird, steht die Ausrichtung der eigenen Data Center-Infrastruktur stärker denn je im direkten Zusammenhang mit den mittel- bis langfristigen Unternehmenszielen. Datengetriebenen Geschäftsmodellen gehört allen Anzeichen nach die Zukunft. Doch beispielsweise das Sammeln und Verarbeiten von Big Data mittels Künstlicher Intelligenz (KI) stellt an die Ressourcen besondere Anforderungen. Sensible Daten, wie etwa Finanz- oder Personaldaten, bedürfen selbstverständlich eines besonderen Schutzes.
Lesetipp: Daten sichern mit "NovaStor DataCenter"
Die allermeisten Firmen bevorzugen hier eine Speicherung der Daten auf den eigenen Servern. Dennoch bringt die Verwaltung auch dieser Assets (weiterhin z.B. in einer Private Cloud lagernd) in einer konsistenten und vereinheitlichten Umgebung Vorteile. Sobald die eigenen Prioritäten klar sind, gilt es selbstverständlich, die passende Lösung zu finden.
Mit einer großen Jubiläumsgala feierte ADN Ende August 2019 sein 25-jähriges Jubiläum – mit berechtigtem Stolz auf das in dieser Zeit erreichte und mindesten ebenso viele Lokalpatriotismus.
Für alle von ADN in den vergangenen Jahren errungenen Auszeichnungen ist eine Litfaßsäule gerade noch groß genug.
Hermann Ramacher, Mitgründer und geschäftsführender Gesellschafter von ADN, konnte 750 Gäste in der inzwischen zum Museum umgebauten Henrichshütte in Hattingen begrüßen.
Auch die Wetterfee hatte ein Herz für ADN. Bei bestem Sommerwetter konnten die Gäste nicht nur unter dem Hochofen flanieren, sondern diesen auch besteigen und von dort die Aussicht über das Ruhrtal genießen.
Heiko Gloge von Igel Technology (links) und der langjährige Citrix-Manager Karl-Heinz Warum erinnern sich gerne an die erfolgreiche Zusammenarbeit mit ADN und Hermann Ramacher.
Gratulierten ADN im Namen von Watchguard: Paul Moll (Field Marketing Manager bei Watchguard) und Michael Hass (Area Sales Director Central Europe bei Watchguard)
Rico Werner und seine Kollegin vom Citrix-Team bei ADN sind nur zwei von inzwischen über 240 gut gelaunten ADN-Mitarbeitern.
Kein Trallafitti ohne Tanzen: Die Tanzgruppe "JackBack" vom Tanztempel Gladbeck machte vor, wie es geht …
… und ließ nach dem großen Finale ...
… ein staunendes Publikum zurück.
Das konnte dann noch den iPad-Magier Simon Pierro bewundern, der sich vor lauter Begeisterung mit Herman Ramacher und Nutanix-Chef Peter Goldbrunner als Zeugen das Logo des ADN-Herstellerpartners auf den Unterarm tätowierte...
... und aus dem Apple-Tablet keineswegs Apfelsaft, sondern gleich noch das Bierchen zapfte, mit dem die beiden auf ihre weitere Zusammenarbeit anstoßen konnten.
Sängerin Pamela Falcon, die vor 15 Jahren für Starlight Express nach Bochum kam und dort ihre zweite Heimat fand, ist in ihrer neuen Heimat heute Kult – und heizte mit ihrer Band den Tanzwilligen unter den ADN-Partygästen ein.
Spätestens auf dem Heimweg wussten dann alle Gäste, was Trallafitti ist – und werden es so schnell auch nicht mehr vergessen.
Jenseits von Marketing-Materialien und technischer Dokumentation ist der Erfahrung nach ein bestimmter Faktor für die Auswahl des passenden Herstellers entscheidend: die Philosophie hinter der Lösung. Welchen Hintergrund hat der jeweilige Hersteller und aus welchen Gründen hat er seine Lösung entwickelt?
Gerade jüngere Hersteller, die ihren Fokus auf ein kleines, immer weiter ausgereiftes Lösungsportfolio legen, haben offensichtlich eine Lücke im bisherigen Markt gesehen. Auch wenn große Hersteller verstärkt das Mantra der Standard-Software beten, kann es kostspielig sein, etablierte Workflows zugunsten des Standards über Bord zu werfen.
Hier hilft es, den Blick jenseits des Mainstreams schweifen zu lassen, welche "kleinere" Lösung den eigenen Anforderungen vielleicht eher gerecht wird. Schlussendlich stellt sich wie immer die Frage nach der Zukunftsfähigkeit der Lösung. Gibt es eine klare Roadmap und bin ich vor einem Vendor-Lock-In geschützt, z.B. durch unkomplizierte Migrationsoptionen? Bei all diesen Dingen erleichtert die Unterstützung durch einen kundigen Partner die Qual der Wahl. Ob die Distribution den IT-Dienstleister berät oder dieser seine Kunden - es geht darum, sich in der unübersichtlichen Vielfalt der Lösungen zurechtzufinden.
Auftritt des Software-defined Data Centers (SDDC)
Seit einigen Jahren kann man die steigende Verwendung des englischen Zusatzes "Software-defined" durch die Hersteller zur Beschreibung ihrer Lösungen beobachten. Dieser Zusatz weist darauf hin, dass die Software-Lösung von der Hardware, auf der sie läuft, abstrahiert ist. Ebenfalls heiß diskutiert sind die Konzepte Converged und Hyperconverged Infrastructure, die nach einem ähnlichen Prinzip funktionieren. Alle diese Lösungen laufen entsprechend der weiter oben beschriebenen Entwicklung auf standardisierter Hardware und stellen eine vollständige Virtualisierung aller Komponenten des Rechenzentrums in Aussicht. Vielfach noch als Vision zu bezeichnen, umfasst das sogenannte "Software-defined Data Center" die folgenden Komponenten:
Netzwerk-Virtualisierung: Die Netzwerk-Virtualisierung teilt die Bandbreite auf beliebig viele Kanäle auf und weist sie je nach Bedarf dort zu, wo sie benötigt wird.
Speicher-Virtualisierung: Der verfügbare Speicher wird über alle Speicherressourcen so zusammengefasst, dass er wie ein einziger Speicher wirkt und zentral verwaltet werden kann.
Server-Virtualisierung: Bei der Server-Virtualisierung werden die Server-Ressourcen so maskiert, dass für den Benutzer alle Server, Prozessoren und Betriebssysteme abstrahiert sind und er sich über die Verwaltung der Server-Ressourcen keine Gedanken zu machen braucht.
Erfordert die vollständige Umsetzung dieser Vision aktuell noch einiges an technischem Know-how und Investition, bietet sie gerade in einer hybriden Rechenzentrums-Realität einiges an Potential.
SDDCs als Hans Dampf in allen Gassen?
Mit dem Software-defined-Ansatz lässt sich der nächste strategische Schritt im Rechenzentrum vollziehen, insbesondere, wenn man bereits auf Software-defined Storage oder Software-defined Server setzt. SDDCs setzen mit frei nach dem Bedarf der Nutzer skalierbaren Umgebungen auf ein Maximum an Flexibilität, Automatisierung und Effizienz. Zusätzlich wird das vorhandene IT-Personal dank des hohen Automatisierungsgrades und den geringeren Bedarf an Spezialwissen aufgrund höherer Standardisierung entlastet.
Außerdem erlaubt die zentrale Verwaltung der Ressourcen eine effizientere Ausnutzung vorhandener Kapazitäten und das bedarfsgerechte Hoch-und Herunterfahren der energiehungrigen Hardware. Letzteres ermöglicht außerdem eine Vereinheitlichung der Sicherheit mittels richtlinienbasierter Governance über die gesamte Umgebung hinweg. Neue Funktionen können mit wesentlich geringerem Aufwand als in klassischen Rechenzentren integriert werden.
Ausfälle einzelner Komponenten werden durch das automatische Verlagern der Workloads auf andere Ressourcen kompensiert. Hybride Szenarien können über beliebige Standorte und Cloud-Anbieter einfacher denn je umgesetzt werden. Die Workloads und Daten lassen sich problemlos dorthin verlagern, wo es strategisch am günstigsten ist.
Das Software-defined Data Center deutet an, wohin die Reise des Rechenzentrums in Richtung eines "Post Cloud-Zeitalters" gehen kann. Wer sich darauf einlässt, hat die Chance, seine IT noch einmal wesentlich flexibler und agiler aufzustellen.