Aktuell unterliegen IT-Abteilungen einen Wandel, wie nie zuvor. Der Digitalisierungszwang von Unternehmen in Verbindung mit neuen Technologien wie Internet of Things (IoT), Big Data oder künstliche Intelligenz (KI) zwingen IT-Verantwortlich ihre herkömmliche IT-Infrastruktur zu überdenken und gegebenenfalls massiv zu verändern. Dieser oft disruptive Ansatz kann die komplette IT-Landschaft eines Unternehmens verändern. So lösen sich die IT-Abteilungen von dem Hardware-basierten Konzept und nutzen verstärkt flexible Cloud-Lösungen, um ihre IT-Infrastrukturen auf die zukünftigen Herausforderungen vorzubereiten.
Dieser Wandel wirkt sich auch auf Datacenter aus. Denn sie müssen die Plattformen liefern, die für diese neuen Technologien benötigt werden und das geht weit über einfache Virtualisierungs-Lösungen hinaus - Software-defined-Datacenter sind angesagt. In diesen werden alle Komponenten wie Server (Computing-Leistung), Storage und Netzwerk zentral per Software gesteuert und mit einer darüber liegenden Management-Software verwaltet. Für spezielle hochperformante Workloads stehen hyperkonvergente Systeme zur Verfügung oder High-Performance-Computing-Einheiten HPC). Auch Grafikleistung für VDI-Anwendungen in Form von Workstation gehören mittlerweile zum festen Service-Umfang von Datacentern.
Im Hinblick auf die genannten Themen erläutern Experten der wichtigsten Server-Hersteller, mit welchen wichtigen IT-Trends sich IT-Verantwortliche 2018 im Bereich Server beziehungsweise Server-Virtualisierung sowie im Datacenter 2018 auseinandersetzten müssen.
• Heinz-Jörg Robert, Manager Solution Line Data Center, Axians
• Uwe Müller, Head of Sales & PreSales Datacenter; Cisco
• Peter Dümig, Sr. Server Product Manager; Dell EMC
• Michael Homborg, Category Manager Datacenter Central Europe; Fujitsu
• Stefan Weber, Strategic Sales Consultant HPE Server; Hewlett Packard Enterprise
• Ingolf Wittmann, Technical Director, CTO & Leader of HPC Europe; IBM
• Dieter Stehle, General Manager Lenovo Data Center Group DACH; Lenovo
• Michael Haderer, Business Developer/Systems Engineering; Thomas-Krenn
Server, Virtualisierung und Datacenter - IT-Herausforderungen 2018
Heinz-Jörg Robert, Axians: "Über allem steht die Cloud - ob Private, Public oder Hybrid, sie ist einfach und schnell für Applikationen zu nutzen und bietet je nach Anwendung die passende Performance und Verfügbarkeit. Und dieser Cloud-Fokus wird 2018 auf die europäische Datenschutz-Grundverordnung (EU-DSGVO) treffen."
"Richtlinienkonformität der Cloud ist also das A und O. Das verlangt eine ganzheitliche Betrachtung von Applikationen, Server, Speicher, Netzwerk, Sicherheit und Personal. Die Komplexität in der Planung und im Betrieb steigt dadurch und belastet so manches Unternehmen."
"Folglich wird der Weg zu einem einheitlichen Hybrid-Cloud-Betriebsmodell die Agenda der IT-Abteilungen 2018 dominieren. Dabei verbleiben die kritischen Infrastrukturen im Rechenzentrum und die nicht kritischen Applikationen werden in die Public Cloud verlagert. Beides benötigt definierte SLA, Automation und standarisierte Prozesse. Das wiederum benötigt in der Planung ein hohes Maß an Flexibilität für Server, Speichersysteme, Security und Netzwerk mit einer zentralen Verwaltung über Analyse, Optimierung, Überwachung bis zur Abrechnung nach Nutzungsgrad der Lösung. Unternehmen reduzieren so ihre OPEX- Kosten und können sich auf wirtschaftliche IT-Interessen konzentrieren."
Uwe Müller, Cisco: "Virtualisierte Server sind heute schon Standard in Rechenzentren. Doch immer mehr Unternehmen ergänzen ihre On-Premise-Lösungen mit Private und Public Clouds. Applikationen verschiedenster Arten werden miteinander verbunden. Hybride Umgebungen entstehen. Virtualisierung ist weiterhin eine wichtige Technologie neben Bare Metal, aber auch Container-Lösungen. Die Verwaltung von hybriden Umgebungen erfordert Management-Systeme, die in der Lage sind, multiple Clouds und verschiedene Technologien unter eine einheitliche Oberfläche zu stellen."
"Ein weiterer Trend sind Intent-Based-Datacenter (Absichts-basierte Infrastrukturen). Damit ein einzelnes Device nicht mehr manuell konfiguriert werden muss, erhalten Infrastrukturen auf den Anwendungszweck ausgerichtete gesamtheitliche Konfigurationen, erkennen automatisch den Kontext einer Situation und reagieren darauf. So nehmen sie Aktionen vorweg, entdecken und beheben Anomalien, wehren Gefahren ab und entwickeln sich ständig weiter. Dadurch werden IT-Experten in die Lage versetzt, umfassende und agile Anforderungen von "morgen" zu erfüllen und zusätzlich zur Entwicklung neuer Lösungen beizutragen."
Peter Dümig, Dell: "Ein zentraler Trend sind hyperkonvergente Infrastruktur-Lösungen. Hier beobachten wir ein starkes Wachstum und großes Interesse an solchen Lösungen als Plattform für Virtualisierung und Software Defined Storage (SDS) in allen Ausprägungen. Damit einher geht auch die Veränderung der internen Organisation bei vielen Unternehmen vom klassischen Säulenmodell, also der Aufteilung in Server, Storage und Netzwerk, hin zu einem Plattform- oder Infrastruktur-Modell. Diese Umstellung ist beim Einsatz einer hyperkonvergenten Infrastruktur erforderlich und trägt zu beschleunigten und vereinfachten internen Prozessen bei. Außerdem sehen wir großes Interesse an Persistent Memory, einer neuen Technologie, die die Lücke zwischen SSDs und dem Arbeitsspeicher schließt. Sie bringt als neuer Cache Tier noch einmal deutliche Leistungsverbesserungen bei High-End-Anwendungen im Big-Data-Bereich oder bei In-Memory Datenbanken und speziell für Real-Time-Applikationen."
Michael Homborg, Fujitsu: "In den Bereichen Server, Server-Virtualisierung und Datacenter setzen sich 2018 insbesondere drei Trends fort: Software-Defined Datacenter (SDDC), die Implementierung von modularen Servern sowie der Einsatz von OpenStack als universeller Cloud-Plattform."
"Unternehmen müssen in der Lage sein, noch schneller auf Veränderungen auf dem Markt zu reagieren, etwa beispielsweise eine stark steigende Nachfrage. Hinzu kommt, dass die Digitalisierung von Geschäftsprozessen und Angeboten agilere und flexiblere Rechenzentren erfordert. Die Automatisierung von IT-Prozessen ist daher unerlässlich. Eine Schlüsselrolle spielen dabei softwarebasierte Rechenzentren. Durch SDDC wird im Rechenzentrum eine Abstraktionsschicht eingezogen, welche die Steuerung, Kontrolle und Bereitstellung der IT-Infrastruktur vereinfacht und automatisiert. Kern des Konzepts ist es also, eine vollständig virtualisierte, durch Software gesteuerte IT-Infrastruktur zu schaffen."
"Der Vorteil: IT-Ressourcen lassen sich nach Bedarf innerhalb kurzer Zeit und weitgehend automatisch bereitstellen. Fachabteilungen haben zudem die Möglichkeit, selbstständig Server- oder Storage-Kapazitäten zu "buchen" - aber stets unter Kontrolle der IT-Abteilung. Eine Studie von Fujitsu belegt, dass bereits viele Unternehmen den Nutzen von SDDC anerkennen. So sind 24 Prozent bereits dabei, ein Software-Defined Datacenter einzurichten. Ebenfalls 24 Prozent planen dies, in naher Zukunft zu tun. Die verbleibenden 52 Prozent der eher konservativen Unternehmen laufen Gefahr, zu hohen Anteilen in die Schatten-IT abzudriften mit später quasi unbeherrschbaren Security-, Compliance- und Kostenproblemen."
"Durch SDDC gewinnen neue Formfaktoren wie modulare Server an Bedeutung. Sie bieten im Vergleich zu älteren Systemen einen hohen Grad an Flexibilität im Hinblick auf Rechenleistung, Speicherkapazität, Netzwerkanbindung und Server-Management und das bei geringstem Platzbedarf. Dank des modularen Aufbaus lassen sich solche Systeme im laufenden Betrieb warten. Außerdem können Compute- und Storage-Knoten in einem Chassis zusammengefasst werden. Diese hohe Variabilität in einem SDDC bietet viele Vorzüge."
"Ein weiterer Trend, der im kommenden Jahr deutlich an Fahrt gewinnen wird, ist OpenStack. Diese Open-Source-Lösung hat sich zum de-facto-Standard einer offenen Managementplattform für Hybrid-Cloud-Infrastrukturen entwickelt. Kombiniert mit geeigneten Plattform Lösungen wie z.B. PRIMEFLEX von Fujitsu, können Nutzer mit OpenStack Workloads jeder Art zwischen Private und Public Clouds verlagern. Mit Wechsel auf eine solche strategische Innovationsplattform sichern sich die Unternehmen die Möglichkeit Zukunftsthemen wie IoT, Big Data und KI souverän zu meistern."
"Laut einer Studie, die Freeform Analytics im Auftrag von Fujitsu erstellte, nutzen bereits 31 Prozent der Unternehmen Virtualisierungs-Stacks auf Basis von Open Source. Rund 11 Prozent setzen OpenStack ein, weitere 26 Prozent haben die Absicht, diese Plattform in ihrem Rechenzentrum zu verwenden."
Stefan Weber, HPE: "Hybride IT-Infrastrukturen umfassen nicht mehr nur das lokale Rechenzentrum und verschiedene Clouds, sondern zunehmend auch IT außerhalb der Rechenzentren, sprich: Edge Computing direkt am Ort der Datenentstehung, in Fabriken, Stadien oder Einkaufszentren. Durch die Verzahnung von verschiedenen Formen von lokaler IT und Clouds steigt die Komplexität. Firmen stehen damit vor der Aufgabe, ihre hybriden IT-Umgebungen zu vereinfachen. Dafür brauchen sie zum Beispiel Lösungen, die alle Ressourcen-Pools einheitlich managen können: virtuell, Bare Metal, Container und Cloud. Um ihre hybriden IT-Landschaften zu vereinfachen, werden Firmen zudem den Einsatz von hyperkonvergenten Systemen ausweiten. Diese werden im kommenden Jahr nicht nur in Außenstellen oder für spezielle Anwendungen wie virtuelle Desktops eingesetzt, sondern in verstärktem Maße auch für geschäftskritische Kernanwendungen. Parallel dazu wächst die Bedeutung von künstlicher Intelligenz für die vorausschauende Problembehebung in der hybriden IT-Landschaft."
Ingolf Wittmann, IBM: "Aktuelle und kurzfristige Themen sind Edge Computing, Persistent Memory und Docker. In Zeiten von IoT und Industrie 4.0 fallen unglaublich viele Daten von Sensoren und Geräten an, welche in Echtzeit verarbeitet werden müssen. Bandbreitenprobleme im Internet und auch in Firmennetzwerken macht eine Aggregation und Verarbeitung der Informationen schwierig. Hier kommt Edge Computing ins Spiel, wo die Informationen dezentral bzw. wo die Daten anfallen vorverarbeitet werden um Vorort wieder zur Steuerung eingesetzt zu werden - oder über das Internet transferiert in den großen Data Lake."
"Speichergröße und Zugriffsgeschwindigkeiten in Speichertechnologien sind eine wichtige Komponente bzgl. Anwendungsgeschwindigkeiten. Persistent Memory schließt hier die Lücke zwischen SSDs und NVMe SSDs und dem Arbeitsspeicher. Kompatibel zu normalen DDR4 Arbeitsspeicher werden NV-DIMM Module alternativ in freien vorhandenen Steckplätze eingebaut werden. Ein Vorteil ist, dass der Inhalt des Speichers auch beim Abschalten des Rechners erhalten bleibt. Die ist insbesondere für In-memory-Datenbanken interessant, wo die Datenbank nicht neu generiert werden muss, sondern sofort wieder zur Verfügung steht."
"Container Virtualisierung wie Docker ist weiter auf dem Vormarsch. Zum einen ist es größtenteils OpenSource-basiert und zum anderen ist nicht mehr die Abschottung der virtuellen Maschinen wichtig, sondern deren Fähigkeiten miteinander zu kommunizieren. Als Nebeneffekt ist Docker effizienter und ressourcenschonender als die klassische Virtualisierung."
"High Performance Computing (HPC) und High Performance Data Analytics (HPDA) sind mit den neuen Servertechnologien ausgestattet mit Accleratoren wie GPUs, FPGAs oder gar Neuromorphic Technologien auch in der Industrie angekommen. Es werden dieselben Software- und Hardwaretechnologien wie im HPC verwendet, allerdings in einem kleineren Umfang, um neue Produkte oder Serviceleistungen für die Kunden zu entwickeln."
"Zu den langfristigen Themen zählen Quantum und Neuromophic Computing. Quantum Computing wird der zukünftige Accelerator für die IT speziell um Probleme zu adressieren, welche heute nicht mit einen klassischen Computer zu lösen sind. Alle großen IT-Unternehmen investieren stark in die Entwicklung dieser neuen Technologie und bilden wie die IBM Kooperationen mit der akademischen Welt, aber auch Industrieunternehmungen, um Use Cases in Quantum-Lösungen umzusetzen. Klassische Programmierer sind hier aktuell eher weniger gefragt, sondern Mathematiker und Quantenphysiker."
"Neuromophic Computing: KI und neuronale Netzwerke werden aktuell mit GPUs in entsprechenden Clustern gebaut mit dem Nachteil, dass der graphische Anteil in GPUs dafür nutzlos ist und GPUs wenig energieeffizient sind. Die Alternative sind Neuromophic Chips, welche sich eher wie das menschliche Gehirn verhalten, extrem energieeffizient sind und sich besser, aber nicht einfacher, programmieren lassen. Die Einsatzgebiete gehen vom mobilen Bereich mit Bilderkennung bis hin zu massiv parallelen HPC-Systemen mit Deep Neuronal Networks."
Dieter Stehle, Lenovo: "2018 werden sich IT-Verantwortliche im Bereich Server bzw. Server-Virtualisierung ganz stark mit schlüsselfertigen Lösungen auseinander setzen. Die Modularität und Skalierbarkeit hyperkonvergenter Lösungen gewinnt künftig eine immer stärkere Bedeutung. Ferner steht die noch stärkere Vereinfachung und Beschleunigung der System Administration sowie des Monitoring vor dem Hintergrund von Anwendungsszenarien wie Artificial Intelligence, High Performance Computing und Big Data & Analytics sicherlich im Fokus der IT-Entscheider."
"Daneben sind die weitere Steigerung der Energieeffizienz zum Beispiel durch direkte Flüssigkeitskühlung und der Einsatz neuer Technologien immer ein ganz wichtiges Thema."
"Im Bereich Datacenter spielen 2018 unserer Ansicht nach die Hybrid Cloud sowie As-a-Service Angebote und Managed Service Provider eine ganz wichtige Rolle. Technologisch werden neue Netzwerktechnologien (25/50/100 Gbit) sicherlich aber auch ein Thema für die IT sein."
Michael Haderer, Thomas Krenn AG: "Allgemeine IT-Trends wie Machine Learning, IoT, und Industrie 4.0 bestimmen 2018 auch die Trends in der Serverlandschaft. Dafür müssen schnell wachsende Datenmengen sowohl gespeichert als auch analysiert werden. Für die Server-Hardware ergibt sich daraus, dass der Bedarf nach sehr leistungsfähigen Systemen mit hoher Leistungsdichte wird weiter steigen wird und damit einhergehend auch der Stromverbrauch pro System. Das wird bei herkömmlicher Kühltechnik zum Problem, alternative Kühlkonzepte kommen deshalb zunehmend aus der Planungsphase heraus und gelangen in die Umsetzung."
"GPU Computing wird hardwareseitig eines der großen Themen werden, durch AMD kommt hier wieder mehr Wettbewerb ins Spiel, doch Nvidia wird auch 2018 noch diesen Markt dominieren."
"Getrieben durch IoT gewinnen Edge und Fog Computing massiv an Bedeutung gegenüber der Cloud, da hier große Datenmengen lokal anfallen und auch nur lokal benötigt werden und oft Verarbeitung in Echtzeit nötig ist. Dafür sind die Latenzen in der Cloud zu hoch und Storage- und Compute-Modelle von Public-Cloud-Anbietern zu unwirtschaftlich. Der Bedarf an Micro Datacentern und speziellen Servern für die Industrie wird daher steigen."