Cloud Computing ist in Deutschland angekommen. Doch viele Unternehmen sorgen sich um den Datenschutz und setzen eher auf Private-Cloud-Konzepte statt auf die Public Cloud. Das bestätigte erst im Mai eine Panel Diskussion auf der Fachkonferenz SecureCloud 2012 um den ehemaligen Lufthansa CIO Thomas Endres. Ein Grund mehr, aktuelle Pakete unter die Lupe zu nehmen, mit denen sich Private-Cloud-Infrastrukturen aufbauen lassen.
Eine Private-Cloud-Umgebung zeichnet sich dadurch aus, dass die aus der Public Cloud bekannten Methoden und Konzepte in das eigene Rechenzentrum übertragen werden. Unternehmen können damit Mitarbeitern, Fachabteilungen und Projekten skalierbare Ressourcen in Form von virtuellen Maschinen, aber auch Entwicklungsplattformen bedarfsgerecht (on Demand) bereitstellen. Die Investition in benötigte Ressourcen sowie die gesamte Administration der Infrastruktur obliegt der eigenen IT-Abteilung. Sämtliche Daten befinden sich bei dieser Cloud-Ausprägung ebenfalls im direkten Einflussbereich des Unternehmens.
Neben Infrastructure-as-a-Service (IaaS)-Lösungen gibt es auch Private-Cloud-Ansätze für Platform-as-a-Service (PaaS)-Software. Dieser Artikel stellt die derzeit bekanntesten und meistdiskutierten Angebote vor.
Eucalyptus Cloud
Eucalyptus (Elastic Utility Computing Architecture for Linking Your Programs To Useful Systems) - http://eucalyptus.com - entstammt einem Forschungsprojekt am Computer Science Department der University of California. Nach kurzer Zeit wurde Eucalyptus Systems Inc. gegründet, die für die Vermarktung zuständig ist. Eucalyptus ist grundsätzlich eine Open-Source-Software für Cloud-Infrastrukturen. Weitere Dienstleistungen, Produkte und professioneller Support bietet das Unternehmen Eucalyptus Systems an.
Der Eucalyptus-Kernbereich besteht aus fünf Komponenten: dem Cloud Controller (Verwaltung des gesamten Systems), dem Cluster Controller (Verwaltung des virtuellen Netzwerks), dem Node Controller (Steuerung des Hypervisor und des Betriebssystems eines Nodes), dem Walrus (Zugriffsverwaltung für den Speicherdienst) und dem Storage Controller (Speicherdienst innerhalb eines Eucalyptus Systems).
Der größte Vorteil von Eucalyptus ist die Nähe zu den Amazon Web Services (AWS). Von Beginn an hat sich das Projekt darauf konzentriert, die grundlegenden Infrastrukturfunktionen wie Amazon EC2 und Amazon S3 nachzubilden. Unternehmen sollen damit die Möglichkeit bekommen, einen Amazon Cloud Clone im eigenen Rechenzentrum zu betreiben.
Insbesondere wegen der offiziellen Kooperation mit AWS war Eucalyptus in den vergangenen Wochen mehrfach in die Schlagzeilen geraten. In Zukunft werden AWS und Eucalyptus stärker zusammenarbeiten, um den Datenaustausch zwischen Private Clouds auf Basis von Eucalyptus und der Amazon-Cloud zu verbessern. Dabei sollen Entwicklerteams aus beiden Unternehmen in einem ersten Schritt gemeinsam Lösungen finden, um Unternehmen die Datenmigration zu vereinfachen. Darüber hinaus wollen die Partner dafür sorgen, dass Kunden mit denselben Management-Tools beide Cloud-Infrastrukturen steuern und verwalten können. Weiterhin wird Eucalyptus durch die Amazon Web Services mit Informationen versorgt, um die Kompatibilität der AWS-APIs zu optimieren.
Gewinner dieser Kooperation ist augenscheinlich zunächst Eucalyptus. Aufgrund der engen Zusammenarbeit kann der Anbieter eine noch bessere Integration für den Hybrid-Cloud-Ansatz liefern - ein Verkaufsargument, das viele CIOs gerne hören werden, wenn es darum geht, kurzfristig Ressourcen aus einer Public Cloud zu beziehen (Cloud Bursting). Aber auch Amazon macht damit einen weiteren großen Schritt in Richtung des attraktiven Markts der Unternehmenskunden.
Darüber hinaus schielen die AWS-Manager auch auf das Thema Big Data. Mit der seit mittlerweile mehr als sechs Jahren gewachsenen Infrastruktur hat AWS die besten Voraussetzungen, um die Verarbeitung großer Datenmengen zu bewältigen. Erste Projekte wurden bereits umgesetzt, darunter die Aufnahme des "1000 Genomes Project", wodurch Wissenschaftler nun einen ständigen Zugriff auf 200 Terabyte an genetischen Daten besitzen. Wird das Thema Big Data auf die Zusammenarbeit mit Eucalyptus abgebildet, wird auch hier deutlich, dass Amazon sich dadurch einen enormen Mehrwert schafft. Denn schließlich müssen die Daten zur Verarbeitung irgendwie in die Public Cloud übertragen werden.
OpenStack
OpenStack (http://openstack.org) ist ein Gemeinschaftsprojekt von Cloud-Computing-Spezialisten und Entwicklern. Ziel ist es, Unternehmen und Service Providern eine Open-Source-Software zum Aufbau von Private und Public Clouds zur Verfügung zu stellen. Das Projekt wurde im Juli 2010 von der NASA und dem US-amerikanischen Cloud-Anbieter Rackspace gestartet. Mittlerweile unterstützen mit AMD, Intel, Canonical, SUSE Linux, Red Hat, Cisco, Dell, HP, IBM und der Telekom viele weitere bekannte Unternehmen das Projekt und nutzen die Software für die eigenen Angebote. So setzt etwa die Telekom auf OpenStack, um darüber ihren Cloud-Services-Marktplatz bereitzustellen, der sich an kleine und mittelständische Unternehmen richtet.
Der OpenStack Quellcode ist frei verfügbar und der Apache 2.0-Lizenz unterstellt. Damit soll jeder die Möglichkeit erhalten, eigene Cloud-Lösungen zu entwickeln und Verbesserungen in das Projekt zurückfließen zu lassen. OpenStack Clouds lassen sich auf Standard-Hardwarekomponenten betreiben, die zum Teil speziell von Hardwareherstellern zertifiziert werden, um das optimale Zusammenspiel zwischen Hardware und Software zu gewährleisten. Einige Mitglieder, darunter Rackspace, haben spezielle OpenStack-Referenzarchitekturen entwickelt, mit denen sie die optimale Nutzung der Cloud-Installationen in ihren eigenen Umgebungen sicherstellen und mit Professional Services unterstützen.
OpenStack besteht derzeit aus fünf Kernkomponenten: OpenStack Compute (Rechenleistung), OpenStack Object Storage (Speicherplatz), OpenStack Image Service (Verwaltung der virtuellen Maschinen), OpenStack Identity (zentraler Authentifizierungsmechanismus) und OpenStack Dashboard (Self-Service Portal).
OpenStack lieferte sich mit CloudStack (siehe unten) in den vergangen Wochen einen Schlagabtausch, der in den internationalen Medien auch als "Open Source Cloud War" tituliert wurde. Hintergrund war der Austritt von Citrix aus dem OpenStack-Projekt und die Überführung seines CloudStack-Projekts unter die Apache Lizenz. im April 2012. Ein Grund für Citrixs Entscheidung, OpenStack zu verlassen, war die angeblich nicht gegebene Kompatibilität zu den Amazon APIs, die aus Sicht von Citrix erfolgsentscheidend für Cloud-Plattformen ist. Dieses Argument ist jedoch nachweislich unbegründet, da OpenStack, wie auch viele andere Cloud-Plattformen, die APIs der Amazon Web Services unterstützt. Zudem werden zahlreiche Virtualisierungstechnologien wie Xen / XenServer, KVM, Hyper-V, VMWare/ESX, Linux Containers (LXC), QEMU und UML unterstützt. So straften Vertreter des OpenStack-Projekts das Vorgehen und die Argumente von Citrix ab und unterstellten dem Unternehmen reines Marketing, um das eigene CloudStack-Projekt zu fördern.
CloudStack
Auch CloudStack (http://cloudstack.org) ist eine Open-Source-Plattform für das Cloud Computing. Sie wurde ursprünglich von Cloud.com entwickelt. Nach der Übernahme von Cloud.com im Juli 2011 erklärte sich Citrix Systems selbst zum Hauptsponsor des CloudStack-Projekts. Die Entwicklung der ersten CloudStack-Version dauerte zirka zwei Jahre. Im Mai 2012 folgte das erste offizielle Release als Open-Source-Software unter der GNU General Public License 3.0.
CloudStack ist eine in Java geschriebene Plattform für den Aufbau und die Verwaltung von skalierbaren Infrastrukturen. Dazu werden derzeit viele Hypervisor unterstützt, darunter VMware, Oracle VM, KVM, XenServer und die Xen Cloud Platform. Die Konfiguration und Verwaltung der Cloud-Infrastruktur kann auf drei unterschiedlichen Wegen stattfinden: mit einer Web-Oberfläche, einer Kommandozeile oder einer RESTful API.
CloudStack setzt sich im Kern aus fünf Teilbereichen zusammen: Dem Compute Controller zur Kontrolle der Rechenleistung, dem Network Controller zur Steuerung des virtuellen Netzwerks sowie dem Storage Controller, der für die BlockStorage Speicherverwaltung zuständig ist. Diese drei Komponenten haben direkten Zugriff auf die darunter liegende physikalische Hardware. Auf den Komponenten wiederum setzt die CloudStack Orchestration Engine auf, die für den eigentlichen Aufbau, die Steuerung und Verwaltung der mit CloudStack entwickelten Infrastrukturen zuständig ist. Darüber befindet sich als letzte Komponente die CloudStack API, welche die Befehle von der Web-Oberfläche, Kommandozeile oder direkt über REST entgegen nimmt und zur Verarbeitung an die Orchestration Engine weitergibt.
Neben Citrix Systems unterstützen viele weitere bekannte Unternehmen das CloudStack Projekt, darunter RightScale, PuppetLabs, Juniper Networks, Enstratus, TrendMicro, Intel und Equinix.
VMware
VMware offeriert neben einigen Public-Cloud-Lösungen insbesondere Systeme für den Aufbau von virtualisierten Umgebungen und Private Clouds. Das ist nicht verwunderlich, gehört der Hersteller doch zu den Pionieren im Bereich der Virtualisierung, eine Technologie, die zu den Schlüsselelementen des Cloud Computing zählt. VMware verfügt daher über die grundlegenden Voraussetzungen, um Cloud-Computing-Lösungen zu unterstützen.
Für den Aufbau einer Private Cloud bietet VMware ein sehr umfangreiches Portfolio. Grundsätzlich werden fünf Produkte unterschieden: VMware vCloud Director, VMware vCenter Chargeback, VMware vShield, VMware vCenter Server und VMware vSphere Enterprise Plus. Der VMware vCenter Server ist die Basis für den Aufbau einer VMware-Cloud-Infrastruktur. Er ist für die Virtualisierung der physikalischen Ressourcen zuständig und kann mehrere tausend virtuelle Maschinen verwalten und kontrollieren.
Der VMware vCloud Director macht aus dem virtualisierten Rechenzentrum anschließend eine Cloud-Infrastruktur. Dabei lassen sich sämtliche Rechen-, Speicher- und Netzwerkkapazitäten vollständig von der zugrundeliegenden Hardware abstrahieren. Zudem integriert vCloud Director VMwares Linked Clone-Technologie, mit der sich aus Basis vApps untergeordnete vApps klonen lassen, bei denen nur die Änderungen der untergeordneten vApps gespeichert werden. Alle weiteren Daten werden direkt aus den Basis vApps gelesen. Das soll zu immensen Einsparungen beim Speicherplatz führen.
Über einen Servicekatalog und ein Self-Service-Portal erhalten die Anwender Zugriff auf vorkonfigurierte Infrastruktur- und Anwendungsservices und können so einfach auf virtuelle Maschinen, Betriebssystem-Images und weiteren Ressourcen zugreifen. Die offene und REST-basierende vCloud API ermöglicht einen Skript-basierten Zugriff auf die Cloud Infrastruktur, um damit beispielsweise vApps hoch- oder herunterzuladen, den Servicekatalog zu verwalten oder weitere Operationen anzustoßen. Über das Open Virtualization Format (OVF) ist zudem der Transfer von Anwendungseigenschaften, Netzwerkkonfigurationen und weiteren Einstellungen zwischen verschiedenen Clouds möglich, die diesen offenen Standard unterstützen. Für die Absicherung der Cloud Infrastruktur beinhaltet vCloud Director die grundlegenden vShield Technologien. Dazu gehören ein Perimeterschutz sowie eine Firewall für den Schutz auf Port-Ebene und der NAT- und DHCP-Dienste.
VMware vSphere Enterprise Plus ermöglicht neben vielen weiteren Funktionen für den Aufbau von Cloud-basierten Infrastrukturen die Verbindung von Private und Public Clouds zu Hybrid Clouds, um bei Bedarf die lokale Cloud mit weiteren Ressourcen aus einer öffentlichen Cloud zu versorgen. Voraussetzung für die Nutzung des VMware vCloud Director sind vSphere Enterprise Lizenzen sowie mindestens eine Instanz von vCenter Server Standard.
Der "VMware vCenter Chargeback" unterstützt das Kostenmanagement, indem er hilft, Kostenmodelle der virtualisierten Infrastruktur zu entwickeln. Damit erhalten Entscheider einen besseren Überblick über die laufenden Kosten der aktiven virtuellen Maschinen und können Entscheidungen für eine bessere Ressourcenauslastung treffen und somit das IT-Budget optimieren. Die Verantwortung kann zudem an einzelne Personen in den Fachbereichen delegiert werden, da diese einen besserer Überblick über ihren tatsächlichen Ressourcenbedarf haben.
Anhand von Kostenberichten und vielen weiteren Funktionen lassen sich umfangreiche Berichte über die Nutzung der virtualisierten Infrastruktur erzeugen, die einen Überblick sowie Vergleichsberichte in Bezug auf die Kosten und Ressourcenauslastung über definierte Zeiträume geben. vCenter Chargeback lässt sich zudem in den vCloud Director integrieren. Das hat den Vorteil, neben Informationen über die genutzten Ressourcen wie CPU, RAM, Speicher, Traffic und die Anzahl genutzter öffentlicher IP-Adressen auch nennenswerte Details zu Services wie DHCP, NAT und der Firewall zu erhalten.
Mit der vShield-Serie bietet VMware außerdem fünf Sicherheitslösungen, die dem Schutz der virtualisierten, beziehungsweise der Cloud Infrastruktur dienen. Ein zentrales Management-Framework unterstützt bei der Absicherung einzelner Hosts, vollständiger Netzwerke, Anwendungen, Daten und Ende-zu-Ende Verbindungen. Die vShield Serie umfasst die Produkte VMware vShield App für den Schutz einzelner Anwendungen sowie VMware vShield App with Data Security, mit der sensible Daten über virtualisierte Ressourcen hinweg geschützt werden. VMware vShield Edge hilft bei der Absicherung virtueller Rechenzentrumsgrenzen. Mit VMware vShield Endpoint soll die Performance erhöht werden, indem Antiviren- und Anti-Malware-Lösungen auf einer zentralen virtuellen Maschine bereitgestellt werden, um dadurch die Arbeitslast zu verkleinern. Der VMware vShield Manager ist die zentrale Komponente und stellt das Management-Framework bereit.
Microsoft
Neben Public-Cloud-Services wie Office 365 oder Windows Azure ermöglicht Microsoft auch den Aufbau von Private Clouds. Dazu nennt das Unternehmen drei Produkte, die miteinander kombiniert eine Cloud Infrastruktur bereitstellen: Windows Server Hyper-V, Microsoft System Center sowie das Virtual Machine Manager Self-Service Portal.
Hyper-V ist eine proprietäre Virtualisierungstechnik von Microsoft. Sie bildet die Basis für die Virtualisierung der physikalischen Infrastruktur. Das System nutzt den Windows Server 2008 R2-Hypervisor. Hyper-V sorgt für die Konsolidierung der Serversysteme und teilt einen physikalischen Server in mehrere virtuelle Maschinen auf. Neben Windows unterstützt Hyper-V Linux und weitere 64-Bit-Betriebssysteme. Hyper-V ist vollständig in das Microsoft System Center integriert und kann so beispielsweise über die Powershell administriert werden. Weitere nützliche Funktionen sind die Live-Migration und die Unterstützung von bis zu 64 logischen Prozessoren.
Microsoft System Center ist die direkte Schnittstelle zum Anwender. Über ein zentrales Management lassen sich die Cloud-Ressourcen überwachen und entsprechend zuweisen. Als Steuerungszentrale sorgt System Center für die Konfiguration, Provisionierung, Überwachung und den Betrieb der Cloud-Infrastruktur. Zudem fasst Microsoft damit alle Tools für die Verwaltung seiner Private- und Public-Cloud-Anwendungen zusammen. So lassen sich beide Welten aus einer Konsole heraus administrieren. Mit einem Anwendungsmanagement hilft System Center beim Lifecycle Management der vorhandenen Anwendungen, von der Bereitstellung über die Konfiguration und das Deployment bis hin zum Betrieb.
So kann die IT-Abteilung den Fachabteilungen eine einzelne Instanz einer Anwendung via "Application as a Service" zur Verfügung stellen, ohne aufwändige lokale Installationen beim Endnutzer durchzuführen. Neben der Organisation von Kernprozessen ermöglicht System Center zudem das Verwalten von Workflows, darunter das Incident-Management und die Automatisierung von Updates.
Der Virtual Machine Manager SSP 2.0 befindet sich hierarchisch über dem Windows Server 2008 R2 Hyper-V und Microsoft System Center. Es handelt sich dabei um eine kostenlos verfügbare und erweiterbare Lösung, mit der die Ressourcen im Rechenzentrum dynamisch in Gruppen sortiert werden können, um auf dieser Basis eine Private Cloud zu errichten. Im Einzelnen sorgt der Virtual Machine Manager für die Zuteilung von Ressourcen zu verschiedenen Abteilungen anhand der Ressourcengruppierung, das Bereitstellen und Validieren der Infrastruktur und der angeforderten Ressourcen sowie die Verwaltung der virtuellen Maschinen über eine Self-Service-Funktion.
Red Hat CloudForms & OpenShift Origin
Red Hat CloudForms
Red Hat bietet mit CloudForms eine Infrastructure-as-a-Service-Lösung zum Aufbau und Verwalten von Private und Hybrid Clouds. Als Basis der Infrastruktur-Lösung dient Deltacloud. Das Open-Source-System abstrahiert die zugrundeliegende Umgebung und stellt die Kompatibilität zwischen mehreren unterschiedlichen Cloud-Umgebungen sicher. Damit ermöglicht Red Hat seinen Kunden, Anwendungen zwischen verschiedenen Cloud-Angeboten, Virtualisierungstechniken oder physikalischen Systemen zu verteilen, zu verschieben und zu verwalten. CloudForms beinhaltet zudem ein umfangreiches Lebenszyklus-Management für Anwendungen.
Darüber hinaus kann die JBoss Enterprise Middleware in CloudForms integriert werden, um damit die Bereitstellung von Anwendungen und Services zu optimieren. So lässt sich etwa die Self-Service- Bereitstellung über ein eigenes Portal einrichten. In Kombination mit dem JBoss Operations Framework verspricht Red Hat zudem eine einfache Migration der JBoss-Middleware und -Anwendungen in eine Cloud-Umgebung.
Red Hat OpenShift Origin
Red Hats Cloud Computing Strategie hat sich in den vergangen Jahren stetig weiterentwickelt. Aus der klassischen Virtualisierung auf Basis von KVM folgten mit Red Hat MRG Messaging-, Realtime- und Grid-Technologien für Unternehmen. Nachdem mit CloudForms der erste vollständige IaaS-Stack für Private Cloud Umgebungen erschien, hatte Red Hat alle notwendigen Komponenten beisammen, um ein Platform-as-a-Service (PaaS)-Angebot zu veröffentlichen. Red Hat OpenShift kam im Mai 2011 auf den Markt. Der Public-Cloud-Service richtet sich an Unternehmen.
Zudem hat Red Hat erkannt, dass nur ein mehrsprachiger PaaS auf dem Markt erfolgreich sein kann. Auf Basis der eigenen JBoss-Infrastruktur unterstützt OpenShift die Java EE Plattform. OpenShift wird als Public Cloud Service in zwei Varianten angeboten: Express und Flex. OpenShift Express ist ein kostenloses Angebot, dass sich an Entwickler richtet und keine graphische Oberfläche mitbringt. Neben Sprachen wie Java und Perl werden auch PHP, Python und Ruby unterstützt.
OpenShift Flex wird auf der Infrastruktur der Amazon Web Services (Amazon EC2) betrieben. Für die Nutzung sind daher die AWS Anmeldedaten notwendig. Neben dem JBoss Application Server werden auch der Apache Web Server, Apache Tomcat, MySQL, PHP, Zend Framework, Java, Memcached, Membase, Infinispan, MRG Messaging und MongoDB unterstützt.
Erst kürzlich hat Red Hat mit OpenShift Origin sein OpenShift- PaaS Angebot unter die Apache v2 License gestellt. Darin sind alle Komponenten von OpenShift enthalten. Der Quellcode des Projekts steht auf GitHub zum Download bereit und ermöglicht so den Aufbau einer eigenen privaten PaaS-Umgebung auf Basis von Red Hat OpenShift im eigenen Rechenzentrum.
CloudFoundry
Die Plattform CloudFoundry startete als Plattform-as-a-Service für die Bereitstellung von Java- beziehungsweise Spring Applikationen auf den Amazon Web Services. Durch die Übernahme von VMware im April 2011 wurde der Service zu einem Open-Source-Multiframework-PaaS umgebaut, das viele Sprachen unterstützt, darunter Java, Spring, Ruby, Scala und Node.js. VMware vermarktet CloudFoundry auch als "Open PaaS", da die Plattform sowohl als Public-Cloud-Service als auch in Form einer Private Cloud genutzt werden kann.
Die "Micro Cloud Foundry" ermöglicht zudem die Installation von Cloud Foundry auf Standard-Notebooks oder -PCs. Dafür wird der vollständige Cloud-Foundry-Stack auf einem virtuellen Maschinen-Image bereitgestellt, das zum Beispiel unter einem lokalen VMware/ VirtualBox Client oder als Instanz auf den Amazon Web Services gestartet werden kann. Darüber hinaus steht der Cloud-Foundry-Stack als Quellcode (vcap) unter GitHub zum Download bereit. Das ermöglicht den Aufbau einer privaten PaaS-Umgebung auf Basis von Cloud Foundry.
Fazit
Trotz der vermeintlichen Vorteile bezüglich Datenschutz und Datensicherheit sollten Unternehmen bedenken, dass der Aufbau einer Private Cloud die Komplexität des Rechenzentrums deutlich erhöht. Zudem gehen Kostenvorteile durch die Vorabinvestitionen in das eigene Data Center verloren. Um die Skalierbarkeit einer Public Cloud wie etwa der Amazon Web Services zu erreichen, müssten IT-Verantwortliche viel Geld in die Hand nehmen. Hier kann die Private Cloud schnell teurer werden als das klassische Rechenzentrum. Dennoch geht es beim Cloud Computing um mehr als Kostensparen. Viele Unternehmen haben erkannt, dass eine gesteigerte Flexibilität und Agilität durch Cloud Computing enorme Wettbewerbsvorteile bringen kann. Diese aber muss jede Organisation zunächst für sich selbst definieren. (wh)