Nach der Server-Virtualisierung und dem Software-Defined Networking ist nun eine weitere Virtualisierungs-Technologie im Kommen: die Network Functions Virtualization, oder kurz NFV. Hinter ihr steht dieselbe Idee wie bei der Server-Virtualisierung: Wenn eine anwendungsspezifische Hardware einen bestimmten Dienst zur Verfügung stellen kann, dann kann das auch eine Software. In diesem Sinne entkoppelt die NFV Netzwerk-Aufgaben wie Firewalling, Intrusion Detection, Routing, Caching oder den Domain Name Service (DNS) und stellt sie per Software als Dienste zur Verfügung, die auf einer Standard-Hardware-Plattform betrieben werden können. Damit eröffnet diese Technologie völlig neue Möglichkeiten, Netzwerkservices zu designen, einzusetzen und zu verwalten.
Es ist vor allem die Telekommunikations-Branche, die von diesen neuen Möglichkeiten erheblich profitieren wird. TK-Service-Provider und Carrier können die proprietären Bestandteile ihrer Hardware durch standardisierte Server- und Netzwerkkomponenten ersetzen. Dadurch erhalten sie mehr Flexibilität, können neue Dienste dynamisch bereitstellen und damit wesentlich schneller auf veränderte Marktanforderungen reagieren. Außerdem lassen sich sowohl Investitionen als auch Betriebskosten deutlich reduzieren, denn Standard-Komponenten sind von Haus aus preiswerter, und das Management des operativen Betriebs virtueller Systeme kann in hohem Maße automatisiert und damit vereinfacht werden.
Vor diesem Hintergrund haben bereits im Oktober 2012 dreizehn der weltweit größten TK-Netzbetreiber - darunter auch die Deutsche Telekom - ein gemeinsames Whitepaper veröffentlicht, in dem sie den Nutzen von NFV hervorheben und die Herausforderungen bei ihrer Adaption beschreiben. Seither hat die Branche diese neue Technologie endgültig auf ihrem Schirm.
Es sind noch einige Hausaufgaben zu erledigen
Bevor NFV branchenweit eingeführt werden kann, sind allerdings noch einige Hausaufgaben zu erledigen. Dazu gehört unter anderem die Optimierung von Commodity-Servern. Der Betrieb virtueller Netzwerkfunktionen auf Servern "von der Stange" ist alles andere als trivial, denn dazu muss ihre Leistungsfähigkeit maximiert werden, und sie müssen Interoperabilität mit anderen Netzwerksystemen bieten. Auch die Verbindung und Steuerung zur Koppelung der einzelnen Netzwerk-Dienste ist eine Herausforderung. TK-Service-Provider benötigen eine leistungsfähige Management-Software, um die Dienste zu orchestrieren, zu überwachen und zu reparieren.
Darüber hinaus geht die Einführung neuer Technologien bei Telekom-Service-Providern in der Regel generell nur sehr langsam voran und ist mit umfangreichen Testläufen verbunden. In diesem Umfeld die gesamte Netzwerk-Philosophie neu auszurichten, ist ein anspruchsvolles Unterfangen. Deshalb wird es in den nächsten zwei Jahren zunächst einmal vor allem darum gehen, NFV über die Phase des Proof of Concept hinaus in der Realität zu verankern.
Dabei kommt Channel-Partnern eine wichtige Rolle zu. Der Hintergrund: Konnektivität - und damit offene Systeme - ist der Schlüssel für eine erfolgreiche Adaption von NFV. Viele Anbieter von Netzwerk-Lösungen sind bereits aktiv geworden, stellen dabei aber je nach ihrer Ausrichtung entweder proprietäre oder offene Systeme in den Vordergrund. Hier muss genau hingeschaut werden, denn nicht in allem, wo NFV draufsteht, ist auch wirklich Offenheit drin. Den Anwenderunternehmen droht deshalb die Gefahr, erneut von proprietären Lösungen abhängig zu werden, nur dieses Mal auf einer noch höheren Ebene.
Hier kann der Channel seine Expertise einbringen und die durchgängige Interoperabilität jeder einzelnen Netzwerkfunktion sicherstellen. Indem er TK-Service-Providern eine Auswahl an NFV-Lösungen innerhalb eines offenen Frameworks bietet, ermöglicht er ihnen, die besten Systeme für ihre individuellen Anforderungen zu erhalten und neue Software einfach zu integrieren. Die Channel-Partner können aber auch selbst ganz direkt davon profitieren, wenn sie den Einsatz von offenen NFV-Lösungen fördern. Da sich diese sehr gut mit Technologien wie Software-Defined Networking oder Cloud Computing ergänzen, ermöglichen sie im Zusammenspiel mit ihnen komplett synchronisierte Netzwerke, die dem Anwender die volle Kontrolle über sämtliche Komponenten gibt. Das eröffnet Systemhäusern wiederum die Chance, bei ihren Kunden mehrere End-to-End-IT-Lösungen im Rahmen eines einzigen Projekts zu realisieren. (rw)