Trotz aller negativen Begleiterscheinungen hat sich die Pandemie auch als Katalysator der Digitalisierung erwiesen. Erster Reflex vieler Unternehmen war der Griff zu Cloud-Angeboten. Hat das auch zu einer Investitionszurückhaltung bei Infrastruktur vor Ort - On-premises-IT - geführt?
Gerry Steinberger: Nein, im Gegenteil. Der Kuchen insgesamt wurde größer, und der weitaus größte Teil davon ist nach wie vor On-premises-IT. In unserem Fall kommt hinzu, dass wir mit HPE GreenLake eine Cloud im Portfolio haben, die auch im Rechenzentrum der Kunden laufen kann.
Nach der Pandemie kamen Krieg, Zeitenwende, Energiewende. Schwer zu sagen, wie es weitergeht. Unternehmen haben dadurch erhebliche Schwierigkeiten, langfristig zu planen, so wie sie das früher für ihre Infrastrukturprojekte taten. Wie reagieren Kunden darauf?
Gerry Steinberger: Die Präferenz für On-premises-IT in Kombination mit den aktuellen Unsicherheiten macht den perfekten Business Case für As-a-Service-Angebote wie HPE GreenLake. Dass die Kunden das auch so sehen, belegt das Wachstum unserer As-a-Service-Umsätze mit im Schnitt 40 Prozent pro Jahr.
Wo liegen die Vorteile?
Dirk Müller-Niessner: As-a-Service-Angebote sind flexibel und skalierbar und bieten den Kunden in volatilen Zeiten einen sicheren Rahmen. Mit Pay-as-you-grow-Modellen investieren Unternehmen nach Bedarf und parallel zum Wachstum in Infrastruktur - finanziell ein klarer Vorteil.
Welche Rolle spielen Managed Service Provider dabei? Die können zwar wegen besserer Skalierung die eine oder andere Schwankung abfangen, aber wenn die Ausschläge zu stark werden, ist das doch auch für MSPs schwer zu handhaben. Wie unterstützt HPE dabei?
Gerry Steinberger: MSPs sind extrem wichtig für unser digitales Ökosystem, weil sie die Kunden auf Augenhöhe mit Cloud-Diensten made in Germany unterstützen. Mit HPE GreenLake müssen MSPs die IT-Infrastruktur nicht kaufen, sondern sie bezahlen, was sie nutzen. Die Kosten skalieren somit parallel zum Kapazitätsbedarf. Das ist ein zentraler Faktor im Wettbewerb mit den Hyperscalern.
Cloud-Nutzung schien zunächst auch recht günstig zu sein. Die meisten haben aber inzwischen gemerkt, dass der Teufel im Detail steckt und es fast unmöglich ist, den Überblick zu behalten. Was empfehlen Sie?
Dirk Müller-Niessner: Bechtle unterstützt zum einen das Kostencontrolling in der Cloud mit passgenauen Managed Services, die Transparenz mit Blick auf den tatsächlichen Verbrauch und den Nutzen der Cloud-Ressourcen schaffen. Auf dieser Basis können gemeinsam mit den Kunden geeignete Maßnahmen zur Optimierung identifiziert und realisiert werden.
Zum anderen beraten wir unsere Kunden, welche Dienste sie zu ihrem Vorteil weiter vor Ort nutzen können.
Wir raten in Projekten außerdem immer dazu, anstehende Investitionen rund um Kennzahlen zu Total Cost of Ownership (TCO) oder Return on Investment (ROI) zu überprüfen.
Viele Kunden sagen: "Es gibt manches, was auf keinen Fall in die Cloud kommt." Aber wie groß ist dieser Anteil?
Gerry Steinberger: Laut IDC laufen im Schnitt rund 70 Prozent der IT-Ressourcen im kundeneigenen Rechenzentrum, in Colocation-Rechenzentren oder am Edge. Die Gründe dafür sind vielfältig. Dazu gehören zum Beispiel Latenzzeiten, Compliance und Daten-Souveränität.
Viele ältere Anwendungen können aus technischen Gründen nicht in die Public Cloud migriert werden.
Und schließlich gibt es noch den nicht zu unterschätzenden emotionalen Faktor - gerade geschäftskritische Anwendungen wollen viele Kunden im eigenen Rechenzentrum betreiben, um auch physisch die Kontrolle darüber zu haben.
Wird künftig wirklich nur noch das On-premises betrieben, was aus Compliance-Gründen oder wegen Latenzzeiten nicht in der Cloud laufen kann?
Dirk Müller-Niessner: Sicher nicht. Abhängig vom jeweiligen Workload und dem Ort der Verarbeitung gilt es die beste Lösung zu finden. Bei Daten, die am Rande des Netzwerks, dem sogenannten Edge, entstehen, ist es in der Regel sinnvoller, sie am Entstehungsort zu verarbeiten und sie nicht in die Cloud zu verschieben. Darüber hinaus gibt es weitere Beispiele und Szenarien, bei denen der On-premises-Betrieb der Cloud vorzuziehen ist.
Viele sehen Cloud immer noch als Ort, an dem Server stehen. Cloud ist ja aber auch eine eigene Technologie - mit ganz anderer Software, ganz anderen Managementansätzen und dem Bedarf nach anderen Fähigkeiten beim Personal bei den MSPs als die "gute alte Rechenzentrumswelt". Wo stehen wir denn da - und wo muss man als MSP jetzt möglichst schnell Know-how aufbauen, um den Anschluss nicht zu verlieren?
Dirk Müller-Niessner: Eine Zeitpunktbetrachtung bringt uns hier sicher nicht weiter. Die Cloud, nein besser, die Technologie Journey, erfordert kontinuierliche Aus- und Weiterbildung. Das haben wir in den vergangenen Jahren gesehen und entsprechend in Know-how investiert.
Darüber hinaus werden wir uns verstärkt mit Themen rund um CLI-, Command-Line-Interface-Schnittstellen und Low Code sowie mit Technologien wie Quantencomputing beschäftigen.
Managed Service Provider sind meiner Meinung nach dann gut aufgestellt, wenn sie, neben den angesprochenen neuen Entwicklungen, weiterhin auch ihr Wissen zu vorhandenen Infrastrukturen ausbauen und auch zukünftig beherrschen.
Zum Video: Wie sich MSPs im Wettbewerb mit Hyperscalern positionieren können