Das war die Botschaft, die Werner Vogels, der mächtige Chief Technology Officer (CTO) von Amazon.com, den Zuhörern seiner Keynote am zweiten Tag der AWS-Entwicklerkonferenz re:invent in Las Vegas mit auf den Weg gab. Alle Developer hätten bei Amazon Web Services die gleichen Bausteine ("Building Blocks") zur Verfügung, die auch AWS selbst nutze, um seine Dienste immer weiter zu entwickeln. Die neue Hochleistungsdatenbank "Amazon Aurora" basiere beispielsweise auf EC2, S3 und DynamoDB.
"Die Cloud ist das neue Rechenzentrum", rief Godfrey Sullivan, CEO von Splunk, den Keynote-Zuhörern entgegen - und AWS sei das beste Data Center. Das sei ein Hauptgrund dafür, das Splunk, Spezialist für "Operational Intelligence" durch Echtzeitanalyse maschinenerzeugter Big Data, seine Partnerschaft mit AWS deutlich intensiviert habe und all seine Kernapplikationen auch in der Amazon-Cloud anbiete. Ein weiterer Grund: "Unsere Kunden verlegen Produktions-Workloads in die Cloud", so Sullivan - und dabei könne Splunk ihnen mit seinen Tools behilflich sein.
Über die reinen Building Blocks hinaus machten von Anwendern geschriebene APIs (Progammierschnittstellen) AWS immer öfter zu mehr als einer schieren Infrastruktur-Plattform, sagte Amazon-CTO Vogels.
Immer mehr Produktions-Workloads in der Cloud
Phil Sant, Chief Engineer und Mitgründer des B2B-Musikdienstes Omnifone (Backend für unter anderem Spotify und Sirius XM) erklärte, seine Firma habe sich vor rund drei Jahren dafür entschieden, ihre Plattform komplett neu und in der Cloud aufzusetzen. "Die Wahl fiel klar auf AWS", so der Musik-Manager. Andere Firmen warnte Sant: "Wenn Sie sich nicht dafür entscheiden, ihre Software neu zu schreiben, dann macht das stattdessen jemand anderes."
"Dev and Test sind die wirklichen Workloads der meisten CIOs", erklärte Werner Vogels. Dabei pflichtete ihm Bryson Koehler bei, schon quasi "Stammgast" auf der re:invent - die 2014 zum dritten Mal stattfindet - und CIO des Wetterdatendienstleisters The Weather Company, der sein mittlerweile weltumspannendes Vorhersagesystem ohne den Cloud-Unterbau von AWS gar nicht hätte realisieren können. Weather Company stellt mittlerweile die Default-Apps auf iOS und Android, sammelt Daten aus mehr als 800 unterschiedlichen Quellen und hat ihre mittlere Zeit für das Generieren eines Forecasts auf um die 11 Millisekunden gedrückt.
"Die Softwareentwicklung verändert sich, um Agilität zu unterstützen", postulierte Werner Vogels. Das bestätigte ihm Patrick Kolencherry, der mit seinem Startup Pristine Anwendungen für das Gesundheitswesen für Googles Datenbrille "Glass" entwickelt. Dazu nutzen die Pristine-Entwickler Docker-Container, in denen sie ihre Apps von Dev über Test direkt in den Produktivbetrieb verschieben. "Docker und AWS passen perfekt zusammen", sagte Kolencherry.
AWS wird zum Container-Terminal
Damit lieferte er das richtige Stichwort für Werner Vogels, der endlich den (erwarteten) und per se kostenlosen "Amazon EC2 Container Service" (ECS) mit Unterstützung für Docker-Container ankündigen konnte. Nicht allein allerdings, sondern mit keinem geringeren als Docker-Chef Ben Golub höchstpersönlich. Der Docker-CEO versprach für die weitere Entwicklung - seine Firma ist gerade erst 18 Monate alt - ein Anwendungsmodell, das mehrere Docker-Container unterstützt, sowie eine übergreifende Management-Plattform, die dann natürlich mit AWS zusammenspielen werde.
Wer die Verlierer neuer technologischer Entwicklungen wie Containerisierung (hm, hatte die Solaris nicht schon vor zehn Jahren? Anm. d. Red.) sein würden, das könne er nicht absehen, sagte Golub: "Aber wir alle werden gewinnen, wenn wir die Applikationen von der Infrastruktur loslösen."
So erwartet wie die Docker-Unterstützung war, so unerwartet kam dann die Ankündigung von "AWS Lambda". Dabei handelt es sich laut Vogels um einen "event-driven computing service for dynamic applications". Vereinfacht gesagt: "No infrastructure, just code" - der Entwickler packt seinen Code in die Cloud, die komplette Provisionierung der benötigen Ressourcen erledigt AWS. Neil Hunt, Chief Product Officer beim Video-Streamer Netflix, hat Lambda schon länger in Benutzung, um damit Prozesse wie das Enkodieren neu eingegangenen Videomaterials zu automatisieren, und zeigte sich von dem "neuen Abstraction Layer" ausgesprochen angetan.
.@neilhunt describes how #Netflix uses #Lambda for rules-based process automation. #reinvent pic.twitter.com/20qOLb1X0x
— COMPUTERWOCHE (@COMPUTERWOCHE) 13. November 2014
Besonders für das sogenannte Internet der Dinge (IoT) tun sich mit Lamdba schier unendliche Anwendungsmöglichkeiten auf. Ein gewisser Unsicherheitsfaktor ist bei solch automatischer Provisionierung natürlich, was dafür später auf der AWS-Rechnung steht. Immerhin gibt es für Lambda, aktuell im Preview-Status, aber einen Free Tier zum Ausprobieren und die AWS-üblichen Optionen, sich beim Überschreiten bestimmter Kostengrenzen warnen zu lassen.
Die Partnerschaft mit Intel trägt Produktfrüchte
Seit Jahren eng verbandelt ist AWS mit Intel, dem es natürlich jede Menge Xeon-Prozessoren für seine ganzen Rechenzentren abnimmt. Da lässt sich der Chipriese nicht lumpen und hat extra für die Cloud-Rechenzentren von Amazon eine Custom-CPU für richtig leistungsfähige EC2-Instanzen entwickelt. In der "C4" stecken auf 2,9 Gigahertz getaktete E5-v3-Xeons, die bis zu 36 vCPUs unterstützen, wie Intels Data-Center-Chefin Diane Bryant ankündigte.
Last, but not least hatte Werner Vogels noch neue, leistungsfähigere EBS-Volumes im Keynote-Gepäck. Sämtliche Produktneuheiten werden im AWS-Blog bereits ausführlich vorgestellt und erläutert.
Der deutsche AWS-Chef Martin Geier erklärte im Gespräch mit der COMPUTERWOCHE auf der re:invent, er freue sich immer über sachliche und konstruktive Kritik. Ärgerlich sei nur, wenn "German Angst" vor der Cloud eine generelle und vage Meta-Ebene nicht verlasse. Von der neuen Region in Frankfurt mit zwei getrennten Availability Zones erhofft sich Geier natürlich ebenso wie der bei AWS für das weltweite Partnergeschäft zuständige Manager Terry Wise einen weiteren Schub für das Business.
Eines jedenfalls hat die Veranstaltung in Las Vegas deutlich gemacht: Selbst wenn Cloud Computing IT-historisch betrachtet noch in den Kinderschuhen steckt - der Ansatz hat jede Menge disruptives Potenzial und wird mittel- und längerfristig Umwälzungen mit sich bringen, die vor allem viele etablierte Hersteller vor teils erhebliche Geschäftsmodellprobleme stellen wird. Jedenfalls dann, wenn sie tatenlos zusehen. Dass es auch anders geht, zeigte zum Beispiel NetApp mit seiner Ankündigung zur re:invent, seine "Ontap"-Kronjuwelensoftware auch über AWS anzubieten; der Anwender hat dabei die Wahl zwischen Speicherort Cloud und einer "Cloud-integrierten Backup-Appliance" im eigenen Rechenzentrum.