Gewöhnlich sind Systemhäuser näher am Kunden als Cloud-Provider. Sie beraten die Unternehmen bei der Auswahl der passenden Technologie und helfen bei der Umsetzung. Ideal ist es, wenn Systemhäuser dabei nicht auf einen einzigen Provider angewiesen sind, sondern weitgehend anbieterunabhängig die optimale Cloud-Lösung für ihren Kunden finden können. Die meisten IT-Dienstleister kooperieren deshalb mit mehreren Anbietern aller Cloud-Facetten - von IaaS über PaaS bis SaaS (Infrastructure, Platform & Software as a Service).
Für Systemhäuser sind so genannte "White Label"-Lösungen insbesondere deshalb attraktiv, weil sie sich unter dem eigenen Brand besser in Komplettangebote integrieren lassen. Doch genau das beinhaltet auch ein Risiko: Sind die Kunden nicht zufrieden oder gibt es technische Probleme, fällt dies stärker auf den Reseller selbst zurück, weil das Produkt unter dessen Markenname angeboten wird. Es ist demnach ratsam, sorgfältig zu prüfen, welches mit "White Label"-Option angebotene Produkt sich tatsächlich auch als solches eignet. Welche Kriterien sollten bei der Auswahl besonders berücksichtigt werden?
Mit "White Label" zum Cloud-Anbieter
Mit Hilfe einer "White Label"-Lösung wird ein Systemhaus - egal welcher Größe - selbst zum Cloud-Anbieter. Welche Parameter die Cloud-Plattform dazu erfüllen sollte, hängt stark von Größe und Branche der Systemhaus-Kunden ab. In jedem Fall sollte eine systematische Evaluation stattfinden, etwa anhand einer Checkliste, unterteilt nach k.o.- und "nice to have"-Kriterien.
Neben technischen Parametern, sind es eher übergreifende Themen wie die Mandantenfähigkeit der Lösung und ein zuverlässiger Support, die für die Auswahl besonders wichtig sind. Zu den entscheidenden Punkten zählt ebenso, ob der Cloud-Provider seine Rechenzentren in Deutschland betreibt, APIs (Programmierschnittstellen) zur Automatisierung anbietet und sich in bestehende Toolkits integriert, um das Risiko eines "vendor lock ins" zu senken. Stellt der potenzielle Partner nur Infrastruktur bereit oder ist ein PaaS-Angebot sinnvoller, voll gemanagt und inklusiver wichtiger Administrations-Services?
Mandantenfähigkeit der Lösung
Für Systemhäuser ist es wichtig, viele Kunden und Infrastrukturprojekte einfach, übersichtlich und transparent zu verwalten. Gerade weil sich die Kunden das jeweils für sie passende Paket zusammenstellen, welches typischerweise aus den Lösungen mehrerer Hersteller besteht, ist das Kunden-Management nicht nur Grundlage für die Abrechnung, sondern auch für das Upselling.
Die gewählte Cloud-Lösung sollte deshalb mandantenfähig sein und ein übersichtliches Management-Panel mitbringen: eine Oberfläche zur Verwaltung vieler Kunden, benutzerdefinierte Domains für Kunden, die dem CI des Systemhauses angepasst und per SSL-Verschlüsselung angebunden sind sowie ein "reverse DNS"-Feature, um Anfrage über die IP-Adresse einer Domain zuordnen zu können.
Je leistungsfähiger so ein Management-Tool ist, umso flexibler lässt sich die Lösung für jeden Kunden einzeln konfigurieren. Neben minutengenauer Abrechnung pro genutzter Ressource ist es sinnvoll, wenn sich beispielsweise Zugriffsrechte oder Feature-Freigaben individuell für jeden Kunden einstellen lassen. Zudem ist es so möglich, Preise flexibel anzupassen und spezifische Angebote einfließen zu lassen. Ein gutes Administrations-Werkzeug bietet die Grundlage für verschiedene Geschäftsmodelle: Während ein Systemhaus-Kunde umfangreiche Managed Services bucht, möchte ein anderer möglicherweise nur Infrastruktur-Ressourcen. Systemhäuser müssen auch hier mit einer "White Label"-Lösung so flexibel wie möglich bleiben können.
Service und Support
Unternehmen, die über ein Systemhaus Cloud-Ressourcen - beispielsweise als Managed Services - kaufen, tun dies, um eine vorausgewählte und integrierte Lösung zu erhalten. Kurz gesagt, Ziel ist es, die technische Komplexität zu reduzieren. Bisweilen sehen sich Unternehmen besonders beim Thema Cloud schwer durchschaubaren und kaum zu vergleichenden Angeboten gegenüber.
Lesetipp: Service-Qualität in der Cloud
Cloud-Ressourcen im schnellen "self service" zusammenklicken zu lassen, mag sich für Einzelunternehmen oder Startups, die kurzfristig zusätzliche Rechenkapazitäten benötigen, eignen. Viele Kunden verlangen aber nach voll gemanagten Cloud-Services. Systemhäuser, die derartige anbieten wollen, müssen enger mit ihren Cloud Providern arbeiten und benötigen oft deren Unterstützung, um wiederum ihren Kunden die von ihnen gewünschen maßgeschneiderten Lösungen bereitzustellen. Nur so kann das Systemhaus die technische Komplexität und das dazugehörige Management beim Provider belassen.
Dass darüber hinaus die Service- und Support-Vereinbarungen (SLAs) zwischen Cloud Provider und Systemhaus mindestens das abdecken müssen, was der Reseller seinen Kunden anbieten möchte, versteht sich von selbst. Idealerweise sollten die SLAs sogar noch enger definiert sein, damit dem Systemhaus im Falle eines Falles noch Handlungsspielraum bleibt. Vor allem mittelgroße und kleinere Systemhäuser bleiben das bei den großen Cloud Providern oft genung auf der Strecke.
Das ist allerdings kein Cloud-spezifisches Problem, sondern ein alltägliches, wenn Marktmacht und Ausrichtung zweier Geschäftspartner nicht zueinander passen. In persönlichen Vorgesprächen merkt man schnell, ob Cloud-Dienstleister und mittelständisches Systemhaus sich auf Augenhöhe begegnen und partnerschaftlich miteinander arbeiten können.
DSGVO und Security
Die Europäische Datenschutzgrundverordnung (DSGVO) ist verbindlich und Kunden fordern von ihren Dienstleistern Rechtssicherheit. Gerade bei der Wahl eines "White Label"-Partners ist von Beginn an Grundsätzliches zu klären - die Lösung wird schließlich unter der eigenen Systemhaus-Brand verkauft.
Lesetipp: Sage forciert den Übergang in die Cloud
Reseller sollten sich deshalb die Einhaltung der DSGVO-Vorgaben bestätigen lassen und besonders kritisch sein, wenn die Muttergesellschaft des gewählten Partners nicht in Europa ansässig ist oder die dem Service zugrunde liegenden Rechenzentren außerhalb des DSGVO-Raumes betrieben werden. Es geht um ein Höchstmaß an Sicherheit für sensible, insbesondere personenbezogene Daten. Für den Schutz vor physischem Zugang zum Rechenzentrum und Zugriff auf die Daten sollten Betreiber ein mehrstufiges Sicherheitskonzept, rund um die Uhr Überwachung durch Sicherheitspersonal und vielfältige Zugangskontrollen bieten. ISO-Zertifizierungen und regelmäßige Audits müssen nachweisbar sein.
Neben dem physischen Schutz, spielen selbstverständlich auch Authentifizierungs-Mechanismen und der Schutz vor unerlaubten Zugriffen eine wichtige Rolle. Wenn Mitarbeiter des Cloud-Providers aufgrund von Wartungsarbeiten oder ähnlichem Zugriff erhalten, muss das ausführlich begründet und protokolliert werden. Starke Verschlüsselung nach Industriestandard sowohl innerhalb der Cloud-Infrastruktur als auch bei der Anbindung an die IT der Kunden sollten eine Selbstverständlichkeit sein.
Innovationsgrad und Automatisierung
Systemhäuser, die sich nicht für einen Global Player sondern beispielsweise für einen lokalen Cloud-Anbieter entscheiden, sollten ihre Ansprüche hinsichtlich High-End-Technologien und Innovationsgrad nicht herunterschrauben. Deep-Learning-Algorithmen, mit denen sich Anomalien im Rechenzentrums-Betrieb vorhersagen lassen, markieren derzeit den Stand der Technik. Durch die Erfassung und die Echtzeit-Auswertung von Betriebsdaten, wie zum Beispiel Umgebungstemperaturen, Spannungspegel, Latenzzeiten, Stromverbrauch oder das Verhalten einzelner Softwarekomponenten, kann ein entsprechender Algorithmus lernen, wann sich ein unerwünschtes Ereignis ankündigt. Das Ziel: Hundertprozentige Verfügbarkeit aus Sicht des Cloud-Nutzers sowie weitgehende Automatisierung.
Lesetipp: Künstliche Intelligenz in der Wolke
Auf dieser Basis lässt sich ein dynamisches Kapazitäten-Management einrichten, um Ressourcen noch effizienter und damit kostengünstiger zu betreiben. Wenn keine Last erwartet wird, fahren ungenutzte CPU-Knoten automatisch herunter. Ebenso stehen sie rechtzeitig und automatisiert zur Verfügung, wenn sich eine Systemlast ankündigt. Im laufenden Betrieb können so beispielsweise Software-Updates eingespielt werden - durch die Übertragung genutzter Ressourcen auf andere Knoten und algorithmische Planung und Durchführung eventuell notwendiger Neustarts merkt der Kunde davon nichts. Solche automatisierten Routineaktivitäten mindern die Komplexität und machen Cloud-Ressourcen komfortabel nutzbar.