von Wolfgang Herrmann und Jürgen Hill
Wer eine einfache Erklärung für das komplexe Gebilde Software Defined Data Center (SDDC) sucht, ist bei Pat Gelsinger gut aufgehoben: "Im Grunde geht es um dieselbe Idee wie bei der Server-Virtualisierung", erläutert der CEO des Softwareanbieters VMware. "Ziel ist es, eine virtuelle Schicht für alle Rechenzentrumskomponenten, also Server, Storage, Networking, Security und Rechenleistung im Data Center einzuziehen." Ebenso wie bei der schon etablierten Server-Virtualisierung würden Unternehmen davon in vielerlei Hinsicht profitieren. Niedrigere Kosten, eine einfachere Bereitstellung von IT-Ressourcen und erheblich weniger Verwaltungsaufwand sprächen für das Konzept. Wie das prinzipiell funktionieren soll, beschreibt VMware in einem Marketing-Papier: "Computing-, Storage-, Netzwerk-, Sicherheits- und Verfügbarkeitsservices werden in Pools zusammengefasst, aggregiert und als Software bereitgestellt, und von intelligenter, richtliniengesteuerter Software verwaltet."
Experten des Marktforschungs- und Beratungshauses IDC definieren das SDDC als "lose gekoppeltes Set aus Software-Komponenten", das RZ-weite Hardware-Ressourcen wie Storage, Rechenleistung, Netzwerke und weitere Systeme virtualisiert und zusammenfasst. Ziel sei es, diese disparaten Ressourcen im Rechenzentrum zu verknüpfen und das komplette Data Center in Form eines integrierten Service zur Verfügung zu stellen.
Der Analyst Richard Fichera von Forrester Research geht davon aus, dass sich SDDC in Richtung einer Produkt-Kategorie und eines zunächst unscharfen Trends entwickeln wird. Erste Produkte setzen nach seiner Einschätzung auf bestehenden Angeboten wie "Converged Infrastructure" sowie Cloud-Technologien und -Tools auf. Microsoft und VMware würden aber bald mit reinen Software-Lösungen auf den Markt kommen. Man dürfe deshalb getrost davon ausgehen, dass zunächst einige Konfusion über genaue Features, Skalierbarkeit und Schnittstellen im SDDC-Umfeld herrschen werde. Auf der Kundenkundenkonferenz VMworld in San Francisco präsentierte VMware dazu erst im August eine Plattform für Netzwerkvirtualisierung, neue Funktionen für das Management und die Automatisierung sowie erste eigene Lösungen für Software Defined Storage.
Für Forrester ist das SDDC auch eine angemessene Antwort auf die kaum noch beherrschbare Komplexität in den Rechenzentren, hervorgerufen durch Generationen von Silo-Implementationen, unvollständigen Virtualisierungsansätzen und einem Wirrwarr von Management-Tools. Unterm Strich, so die Analysten, vereine das Software Defined Data Center alle Anstrengungen, gewachsene Legacy-Strukturen, Cloud Computing und neue I/O-Ansätze in eine gemeinsame Management-Ebene zu überführen.
Software Defined Storage
Ganz ähnlich wie die Beschreibungen des Software Defined Data Center klingen Erklärungsansätze für Software Defined Storage. Ashish Nadkarni, Speicherexperte bei IDC, spricht in diesem Zusammenhang auch von Software-based Storage. Er vergleicht das Konzept mit dem etablierten "Software-based Compute", das durch "Tools" wie VMware vSphere, Microsoft Hyper-V oder KVM ermöglicht werde. Software-defined Storage erweitere diesen Ansatz auf Storage-Ressourcen und biete dabei ähnliche Vorteile für die Unternehmen: Storage-Hardware werde zur "Commodity", die nichts weiter als Kapazität zur Verfügung stelle.
In der Studie "IDC's Worldwide Software-Based (Software-Defined) Storage Taxonomy, 2013” schreibt Nadkarni: "IDC geht davon aus, dass Software-based Storage sich langsam, aber stetig zu einem dominierenden Teil in jedem Data Center entwickeln wird, entweder als Komponente eines Software Defined Data Center oder einfach als eine Methode, um Daten im Vergleich zu traditioneller Software effizienter und kostengünstiger bereitzustellen."
Neben den zahlreichen bereits verfügbaren Tools der großen Storage-Hersteller bewegt sich mittlerweile auch VMware im Rahmen seiner Bemühungen rund um das SDDC in diese Richtung. Auf der VMworld zeigte der Hersteller eine Beta-Version der Storage-Virtualisierungsplattform vSAN (VMware Virtual SAN). Sie soll Speicherressourcen wie Festplatten oder SSDs in Pools zusammenzufassen und den Anwendungen bedarfsgerecht zur Verfügung zu stellen.
Software Defined Networking (SDN)
Das Software Defined Networking basiert auf der Grundidee, Netzwerkinfrastruktur und Netzwerkanwendungen zu trennen. In den aktiven Netzkomponenten werden dazu Control Plane und Data Plane voneinander entkoppelt. Die "Netzintelligenz", also etwa die Information, welche Route ein Datenpaket zu nehmen hat, wird in einem zentralen System (Controller) konzentriert. So zentralisiert SDN den Entscheidungsprozess, wie Daten in einem Netzwerk bewegt werden, in einem Controller-Cluster, der Einblick in die gesamte Netzwerk-Infrastruktur hat.
Da zentralisierte Controller den gesamten Datenpfad überblicken und definieren können, lassen sich wichtige Mehrwertdienste für die Nutzer ergänzen. Zudem stellt der SDN-Controller Informationen über die Anwendungen und die gesamte Netzinfrastruktur bereit und gibt Empfehlungen, welcher vorgeschlagene Weg der Beste ist, um Informationen von A nach B zu senden, basierend auf konfigurierbaren Parametern für die jeweilige Anwendung am jeweiligen Tag und zum jeweiligen Zeitpunkt. Das ist etwas, was traditionelle Netzwerkprotokolle so nicht leisten können. Unterm Strich können Unternehmen so Netze effizienter betreiben und auslasten. Für Latency-sensitive Anwendungen lässt sich die erforderliche Dienstgüte ( QoS= Quality of Service) im Netz sichern.
Für Joe Skorupa, Analyst beim der Marktforschungs- und Beratungshaus Gartner, ist SDN ein neuer Ansatz, um Netzwerke zu designen, zu implementieren und zu betreiben. Gartner zufolge wird SDN derzeit fälschlicherweise vor allem als Technologie betrachtet, die in Rechenzentren und Service-Provider-Netzen zum Zuge kommt. Sie könne jedoch auch in Enterprise-WANs (Wide Area Networks) und Campus-Netzen eingesetzt werden.
Zur Implementierung eines SDN gibt es drei Ansätze:
-
ein Switch-basiertes Modell,
-
ein Overlay-Modell und
-
einen Hybrid-Ansatz.
Network Function Virtualization (NFV)
Der Begriff fällt meist im Zusammenhang mit SDN und will vor allem ein Problem adressieren, das Carrier und Service-Provider betrifft: Die vielen hochspezialisierten Appliances für Aufgaben wie Firewall, Deep Packet Inspection (DPI) oder Message Router. Diese Funktionen sollen nun virtualisiert werden, so dass sie auf Standardhardware laufen können. (rb)