Zuletzt war der Diskurs über das Thema ziemlich einseitig geworden - jedenfalls in Deutschland. Wer über Cloud Computing sprach oder schrieb, dem ging es quasi automatisch um Sicherheitsaspekte. Vorrangig um die Frage, ob in Zeiten von Abhöraffären Online-Speicher nicht zu gefährlich sind. Oder ob man sich - wenn schon - lediglich auf europäische oder sogar nur deutsche Anbieter stützten sollte.
So wichtig diese Diskussion ist, für das Ende des Cloud Computing wird sie nicht sorgen, und selbst die nächste große Spähaffäre wird das voraussichtlich nicht schaffen. Dazu sind die Vorteile der Idee zu bestechend: Kunden brauchen keine Maschinen anzuschaffen und müssen weder üppige Stromrechnungen noch Personal für die Server-Räume bezahlen. Alles, was anfällt, ist die monatliche Miete für die Nutzung eines winzigen Teils der gigantischen Kapazitäten, die die großen Player der Branche vorhalten. Und diese Kapazitäten erlauben es den Big Three in diesem Business - Google, Amazon und Microsoft -, preislich sehr attraktive Pakete zu schnüren.
Angebote ähneln sich nur auf den ersten Blick
Allerdings unterscheiden sich die Angebote auch diesseits aller Sicherheitsfragen durchaus voneinander. Wie, das hat die CW-Schwesterpublikation "Infoworld" in den USA unter die Lupe genommen. Sie mietete Kapazitäten bei Amazons Service "EC2", Googles "Compute Engine" sowie bei Microsoft "Windows Azure" und verglich Performance und Preise miteinander. Die gute Nachricht ist, dass viele Versprechen der Anbieter erfüllt werden. Das betrifft zunächst die schnelle Nutzbarkeit: Wer ein paar Online-Formulare ausfüllt und die richtigen Buttons anklickt, bekommt innerhalb von wenigen Minuten Zugriff auf die Maschine.
Auf den ersten Blick ähneln sich die Angebote der drei Großen stark. Bei allen gibt es eine Auswahl unterschiedlicher Kapazitätspakete und Konfigurationsmöglichkeiten. Wer allerdings Anwendungen in den unterschiedlichen Wolken laufen lässt, bemerkt sehr schnell Unterschiede bei Leistung und Kosten. Die "Infoworld" testete kleine, mittlere und große Konfigurationen der drei Anbieter mit der Open- Source-Benchmark-Plattform DaCapo. Dabei handelt es sich technisch betrachtet um eine Kombination von 14 gängigen Java-Programmen, die gemeinsam ein leicht benutzbares Java Archive darstellen. Die Lösung simuliert sozusagen typische Belastungen eines Systems durch gängige Programme. Einige der Simulationen stellen besondere Herausforderungen für Speicher dar, andere für Prozessoren, manche auch für beide. Einer der Tests, er heißt Tomcat, startet einen Web-Server und öffnet eine Reihe von Websites. Andere werfen gängige Indexierungs- und Suchwerkzeuge an, und "Avrora" zum Beispiel simuliert die Arbeit einiger Microcontroller.
Googles Speicher sind am schnellsten
Die CW-Schwesterpublikation betrieb die insgesamt 14 DaCapo-Tests mit drei verschiedenen Linux-Konfigurationen in jeder Cloud und benutzte dabei die Java-Standardeinstellungen. Natürlich waren die Angebote nicht völlig identisch, aber in Sachen Größe und Preis absolut vergleichbar. Wie nicht anders zu erwarten, produzierten 14 Tests von neun Angeboten (drei Anbieter mit jeweils drei unterschiedlich großen Wolken) Unmengen von Daten, aus denen sich erst nach genauer Analyse aussagekräftige Ergebnisse herausfiltern ließen. Hier die wichtigsten:
1. Googles Clouds arbeiten am schnellsten, die von Windows Azure am langsamsten. 13 von 14 Tests absolvierte eine Google-Maschine am schnellsten. Windows war einmal am schnellsten, Amazon nie.
2. Google entpuppte sich insgesamt auch als der günstigste Anbieter, dicht gefolgt von Windows Azure. Acht von 14 Testanwendungen ließen sich auf einer Google-Maschine am billigsten ausführen. Amazon war nur bei einem Test am preiswertesten.
3. Wer nur auf die Kosten schielt und mit vergleichsweise wenig Leistung zufrieden ist, fährt mit Windows Azure Small VM (Einkernprozessor, sechs Cents pro Stunde) am besten. Diese Lösung absolviert alle 14 Tests zu einem Preis von 0,67 US-Cent. Allerdings ist diese Lösung auch eine der langsamsten. Googles n1-highcpu-2-Dienst brauchte für den gesamten Job nur halb so lange - und das zum Preis von nur 0,70 Cent.
4. Wenn Speed das wichtigste Kriterium ist, führt Googles "n1-standard-8"-Maschine die Tabelle an. Elf von 14 Tests erledigte sie am schnellsten, und alle Prüfungen zusammen in nur 101 Sekunden zum Preis von 2,32 Cent. Das heißt, diese Maschine ist genau viermal schneller als Windows Azure Small VM und dreieinhalb Mal so teuer.
5. Amazons Angebote waren selten wirklich günstig. Im Gegenteil: Unter den Angeboten für Einkernprozessoren lag Amazons m1.medium sowohl beim Preis als auch beim Tempo ganz hinten. Die c3.large-Maschine mit zwei Kernen war hingegen die zweitschnellste von allen, aber auch die teuerste.
Teurer heißt nicht unbedingt schneller
Interessant sind auch jene Ergebnisse der Tests, in denen es nicht vorrangig darum geht, welcher Anbieter der schnellste oder günstigste ist. Einige davon liefern wertvolle Hinweise darauf, worauf Kunden von Cloud-Lösungen achten sollten:
1. Größer und teurer ist nicht unbedingt gleichbedeutend mit schneller, manchmal gibt es für mehr Geld schlicht weniger Leistung. So absolvierte die teuerste der drei Windows-Azure-Maschinen den sogenannten Avrora-Test am langsamsten und die preiswerteste am schnellsten. Dasselbe Phänomen zeigte sich bei Googles Ein- und Zweiprozessor-Angeboten.
2. Oft lohnt es sich nicht, auf möglichst viele CPUs zu setzen. Beispiel: Windows Azures Achtkern-Maschine war zwar oft deutlich schneller als sein Einkern-Pendant, aber fast nie achtmal. Was insofern enttäuschend ist, als sie tatsächlich achtmal so viel kostet. In den meisten Tests bewältigten die "Achtender" ihre Aufgaben lediglich zwei- bis viermal rascher.
3. Speed hängt nicht nur von der CPU ab: Ein zügiger Prozessor mit kleinerem Hauptspeicher kann langsamer sein als die umgekehrte Konfiguration.
4. Preislisten können gute Hinweise auf die tatsächliche Leistungsfähigkeit liefern: Googles n1-highcpu-2-Lösung ist nur ungefähr 30 Prozent teurer als die n1-standard-1-Maschine, obwohl sie theoretisch doppelt so viel CPU-Power bietet. Vermutlich legt Google seinen Preisen zum Teil Performance-Tests zugrunde.
5. Die tatsächlichen Effekte von sogenannten Bursts, also dem kurzfristigen Bereitstellen zusätzlicher Leistung, sind schwer vorhersehbar. Manchmal führen solche Bursts zu spürbarer Mehrleistung, manchmal aber auch nicht. Und: Wenn eine Maschine an einem Tag besonders schnell ist, dann kann das am Burst liegen. Es kann aber auch andere Gründe haben (siehe oben).
Nur kaufen, was man wirklich braucht
Wichtig beim Betrachten sämtlicher Ergebnisse ist ein Umstand, auf den die Tester besonders hinweisen: "Einige der gemessenen Unterschiede sind mit hoher Wahrscheinlichkeit jenen Zufällen geschuldet, die Clouds zwangsläufig mit sich bringen." Soll heißen: Auch wenn die Anbieter den Eindruck erwecken, der Kunde miete bei ihnen eine physische Maschine, die genau lokalisierbar in einem geheimen und verbunkerten Keller stehe, so hat dies mit der Realität wenig zu tun.
Laut "Infoworld" bekommt der Kunde tatsächlich nur eine dünne Scheibe von einem Server ab. Er teilt die Maschinen mit anderen Anwendern, die ihre Leistung beeinflussen können. Deshalb kann die Performance eines Cloud-Speichers von einer Minute auf die andere oder von einer Stunde zur nächsten stark variieren. Zwar wurde die Validität der Ergebnisse des "Infoworld"-Tests durch häufiges Wiederholen erhöht, dennoch können andere Testergebnisse davon abweichen.
Festzuhalten bleiben aus Sicht der Nutzer vor allem, dass es Sinn ergibt, nur zu kaufen, was man wirklich braucht. Einfache Konfigurationen können in der Praxis vergleichsweise schnell sein. Zumal - ähnlich wie beim lokalen PC - CPU-Power nicht alles ist. Deshalb ist es angeraten, immer mit einer schmalen Konfiguration anzufangen und bei Bedarf aufzustocken. Denn schließlich ist es der eigentliche Sinn des Cloud Computing, dass der Kunde nur das bezahlt, was er wirklich braucht. (pg)