Data Center der Zukunft

Kampf der Server-Plattformen

Wolfgang Herrmann ist IT-Fachjournalist und Editorial Lead des Wettbewerbs "CIO des Jahres". Der langjährige Editorial Manager des CIO-Magazins war unter anderem Deputy Editorial Director der IDG-Publikationen COMPUTERWOCHE und CIO sowie Chefredakteur der Schwesterpublikation TecChannel.

Mainframe geht auch billiger

Klassische Großrechner werden auch künftig fester Bestandteil vieler Rechenzentren sein. Der Trend zur Rezentralisierung und Konsolidierung von IT-Ressourcen begünstigt die anhaltende Popularität des Big Iron. Dass der Mainframe für viele IT-Manager weiterhin attraktiv ist, hat für Butler aber vor allem mit einem strategischen Schachzug IBMs zu tun: dem Konzept der so genannten Specialty Engine. Kunden können damit einen Teil ihrer Arbeitslasten auf speziell zugewiesene Prozessoren innerhalb des Großrechners verlagern. Weil sich die Softwarelizenzkosten im Großrechnergeschäft in der Regel nach der Rechenkapazität bemessen, sparen Kunden Geld, wenn sie Anwendungen nur in der begrenzten Specialty Engine betreiben. Für alle anderen Anwendungen berechnet IBM die Softwarekosten anhand der gesamten Kapazität des Mainframes, was zu deutlich höheren Gebühren führt. Der IT-Konzern offeriert derzeit drei solche Optionen: die Integrated Facility for Linux (IFL) für Linux-Workloads, den System z Application Assist Processor (zAAP), auf dem Java-Code in einer Java Virtual Machine (JVM) läuft, und den System z Integrated Information Processor (zIIP). Letzterer ist für spezielle DB2-Aufgaben und diverse datenzentrierte Arbeitslasten konzipiert.

IBM verfolgt mit dieser Strategie gleich mehrere Ziele. Zum einen reagiert der Konzern auf die Kritik vieler Mainframe-Nutzer, die Softwarekosten seien zu hoch. Tatsächlich machen sie in TCO-Analysen den dicksten Brocken aus. Zum anderen versucht IBM mit den spezialisierten CPUs, neue Arbeitslasten auf den Mainframe zu bringen, die Kunden ansonsten auf günstigeren Server-Plattformen betreiben würden.

Zur Startseite