These 6: Zwischen 2018 und 2023 werden weltweit rund 500 Millionen neue Applikationen entstehen - so viele wie in den vergangenen 40 Jahren zusammen.
Dazu tragen neue Tools und Plattformen, mehr Entwickler, agile Methoden und die verstärkte Wiederverwendung von Code bei. Die App-Explosion ist auf zwei Trends zurückführen: dem genannten Shift in Richtung hyperagiler App-Technologien, -Architekturen und-Methoden sowie dem rasanten Anwachsen der Entwicklerpopulation durch Low-code- und No-Code-Umgebungen.
Ein dritter Trigger ist die Verfügbarkeit gewaltiger öffentlicher und privater Code-Bestände. Entwickler haben künftig zwei Optionen: neuen Code schreiben oder sich Programmbausteine beschaffen - von Snippets bis hin zu kompletten Services. Diese lassen sich dann in größere Applikationen integrieren. In den nächsten fünf Jahren ist zu erwarten. dass neue Anwendungen zunehmend durch das Sammeln und Zusammensetzen verfügbarer Bausteine entstehen.
Unternehmen sollten sich deshalb damit beschäftigen, wie sie externen Code professionell auf potenzielle Schwachstellen analysieren können. Dieser muss den Qualitäts- und Funktionsansprüchen genügen - eine Aufgabe für Compliance- und Testing-Bereiche. Außerdem sollte die interne IT ein Repository mit sauberen und hochwertigen Programmbausteinen und Services bereitstellen.
KI-fähige Analytic-Tools für DevOps werden helfen, die steigende Komplexität von Deployments in heterogenen Multi-Cloud-, On-premise- und Edge-Umgebungen in den Griff zu bekommen. Hilfe ist von der Flut an robusten Entwickler-Services durch die Cloud-Hyperscaler zu erwarten sowie den technischen Fortschritten in den Bereichen Machine Learning, Daten-Services, Analytics und IoT-Services.
Die Verfügbarkeit intelligenter DevOps-Technologien wird laut IDC den Schulungsaufwand senken, die Effizienz der Entwickler verbessern und die professionelle Zusammenarbeit von Dev und Ops optimieren. Da sich maschinelles Lernen und KI-Analytics rasant weiterentwickeln, werden sie in alle Phasen von DevOps-Prozessen sowie in das Management des Portfolios integriert.
IDC empfiehlt Unternehmen, agile DevOps-Ansätze im ganzen Unternehmen zum Standard zu machen. Sie müssten außerdem lernen, wie sich fertige Programmbausteine und Services in die eigenen Anwendungen sicher integrieren lassen. Eine Voraussetzung sei es, sich mit den Vor- und Nachteilen der verschiedenen Open-Source-Lizenzmodelle zu befassen und herauszufinden, was diese Lizenzen erlauben.
These 7: Bis 2022 wird ein Viertel der Public-Cloud-Workloads nicht mehr auf x86-Prozessoren laufen. Gleichzeitig werden mehr Unternehmen Geld für branchenspezifische als für horizontale Cloud-Angebote ausgeben. Es wird also sowohl eine Spezialisierung am oberen als auch am unteren Ende des Stacks geben, die durch die massive Expansion der Cloud getrieben ist.
Auf der Hardware-Ebene kommt es zu einer schnellen Verbreitung heterogener Architekturen, wofür Entwicklungen rund um Grafikprozessoren (GPUs), Field Programmable Gate Arrays (FPGAs) oder auch Quanten Computing verantwortlich sind. Insbesondere das Aufkommen von künstlicher Intelligenz und Machine Learning hat einen starken Einfluss auf die Prozessorlandschaft in den Rechenzentren gehabt. Lange Zeit war die Hardware dort homogen, x86-CPUs übernahmen die meisten, manchmal sogar alle Workloads.
Da jetzt aber KI neue Anforderungen an Parallelverarbeitung stellt, nimmt die Heterorgenität der Prozessoren zu. GPUs, FPGAs und spezialisierte Multi-Core-Chips für Parallelverarbeitung (Manycore-Prozessoren) beschleunigen das Training der KI-Modelle und die Interferenz-Workloads. Dieser Trend wird sich bis 2022 massiv verstärken, dann wird ein Viertel der Rechenpower von schnellen Spezialservern kommen.
Ein großes Segment dieser neuen Server wird auch Nicht-KI-Anwendungsfälle ausführen, die Massiv Paralleles Computing (MPC) erfordern. Für das KI-Segment der MPC gibt es indes ein stark wachsendes Interesse an der Verwendung von ASICs für die Bereiche Leistung und Effizienz. Dazu tragen Googles aktive Entwicklungen rund um die TensorFlow Processing Units (TPUs) und die zu erwartenden KI-Prozessor-Entwicklungen anderer Cloud-Player bei. Der Startup-Markt für KI-ASICs ist lebendig, Intel wird Ende 2019 ebenfalls KI-ASICs herausbringen. Sie können KI-Workloads beschleunigen und das Training von Modellen effizienter und ökonomischer machen. ASICs sind aber keine Alternative für GPUs oder FPGAs, die Kosten sind noch zu hoch.
Auf der Software- und Lösungsebene wird es eine Explosion vertikaler SaaS-Angebote geben. Schon jetzt steigt die Zahl der verfügbaren Use Cases sehr schnell. Laut IDC wählen schon heute Unternehmen vertikale SaaS-Lösungen doppelt so oft wie horizontale Anwendungen, um die Anforderungen ihres Unternehmens und ihrer Industrie perfekt abzubilden. Die Provider investieren in industriespezifisches Know-how, Daten und Tools, die sich bei horizontalen Anbietern nicht finden. Die Branchenlösungen sind unterm Strich kostengünstiger, passgenauer, flexibler und bedienerfreundlicher. Die Datenmodelle bieten einen Industriekontext und perfekt nutzbare Analytics für User.
These 8: Für eine wachsende Anzahl an Apps und Services wird die Benutzerschnittstelle KI-gesteuert sein und Sprach-, Gesten- oder andere Formen der Eingabe ermöglichen.
IDC glaubt, dass bis 2024 ein Drittel der heutigen Screen-basierten Apps abgelöst und durch KI-basierte Systeme ersetzt sein werden. "AI is the new UI", schreiben die Marktforscher. Es gehe darum, auch in Zukunft die Kundenaufmerksamkeit zu ergattern und die Produktivität der eigenen Mitarbeiter hochzuhalten.
Die große Akzeptanz von Consumer-Tools wie Google Assistant, Siri, Microsoft Cortana und Amazon Alexa belegt, dass der Trend zu intelligenten "Conversational Assistant Systems" intakt ist. Massive Fortschritte bei Techniken, die gesprochene Sprache verarbeiten können, sorgen demnach für eine steigende Akzeptanz von Virtual Digital Assistant und Chatbots. Tools wie Google Translate und Deepl übersetzen geschriebene Sprache immer besser.
Die Kombination von Spracherkennung mit Suche, Übersetzungen, Analytics und KI wird die Art und Weise, wie wir mit Computern kommunizieren, revolutionieren, meint IDC. So wie Menschen untereinander reden, werden sie in Zukunft auch mit Maschinen sprechen. Der Einstein Voice Assistant von Salesforce sei ein Beispiel dafür, wie solche Technologien über Marketing-, Vertriebs- und Serviceabteilungen hinweg eingeführt würden.
IDC weist in diesem Zusammenhang darauf hin, das sich die Demographie der Konsumenten und Knowledge Worker ändere. Vertreter der Generationen Y und Z vereinen einen immer größerer Teil der arbeitenden Bevölkerung auf sich. Für diese User ist die natürlichsprachige Bedienung von Endgeräten nicht neu, weshalb immer mehr Enterprise-Anwendungen Sprachschnittstellen erhalten und Chatbots selbstverständlich werden.
Die Lawine ist längst in Rollen geraten, Marketing- und Kundenservice-Bereiche kennen diese Technologien und fragen sie gezielt nach. Für IT-Organisationen heißt das, sie müssen beraten und Ressourcen bereitstellen können. Dabei geht es um Fragen der Sicherheit, der Interoperabilität mit anderen Enterprise-Anwendungen und um den Zugang zu Corporate-IT-Ressourcen.
IDC warnt allerdings vor der Komplexität von Sprachtechnologien, sie müssten den Unwägbarkeiten menschlicher Interaktion standhalten. Es handele sich nicht um traditionelle "Solid-State"-Technologien, die mit wenig kontinuierlicher Überwachung und Kontrolle betrieben werden können. Der Microsoft Tay-Bot, den Twitter-User kurz nach der Markteinführung 2017 darauf trainiert hatten, unflätiges, rassistisches Zeug zu veröffentlichen, ist ein heilsames Beispiel für die Risiken.
Unternehmen sollten einen Plan entwickeln, wann und wo sie sprachbasierte Systeme einsetzen wollen, und sie sollten sich die Tools und Anbieter ansehen. Ebenfalls sinnvoll ist es, sich mit den Möglichkeiten robotikgestützter Prozessautomatisierung zu beschäftigen.
Vor allem die IT-Organisationen sollten sich diesbezüglich auf dem Laufenden halten und einen vertrauenswürdigen Anbieter oder Channel Partner finden, mit dem sie erste Gehversuche machen können. Von Best Practices und den Fehlern anderer zu lernen, war immer schon eine gute Idee. Gemeinsam mit der Personalabteilung und den geeigneten Fachbereichen gilt es auch, über eine "Sprache des Business" nachzudenken. Tatsächlich ist die Sprache der Bots elementar wichtig für das Marken-Image. Sie sollte die Werte des Unternehmens und seine Kultur widerspiegeln.
Große Fortschritte prophezeit IDC auch der Prozessautomatisierung, basierend auf Robotic Process Automation (RPA). Viele Aufgaben, die Menschen im Zusammenhang mit der Bedienung von Anwendung wahrnehmen, werden demnach von der Maschine übernommen, andere ersatzlos wegfallen. Prozesse zwischen Anwendungswelten werden einfacher.
Details zum Thema Robotic Process Automation finden Sie hier:
RPA ist eine Softwareklasse, die geschaffen wurde, um manuelle, repetitive Aufgaben zu ersetzen oder wenigstens zu erleichtern. Viele Unternehmen haben RPA bereits für die Automatisierung von Teilen ihres IT-Betriebs entdeckt. Dass die Technik auch Automatisierungschancen für Geschäftsaufgaben bietet, spricht sich ebenfalls herum.
These 9: Bis 2022 werden 50 Prozent der Server-basierten Stamm- und Bewegungsdaten verschlüsselt sein. Über 50 Prozent der Sicherheits-Alerts werden mit KI-gestützter Automatisierung gemanagt. Und 150 Millionen Menschen werden Blockchain-basierte digitale Identitäten besitzen.
Im ständigen Tauziehen zwischen Angreifern und sich verteidigenden Unternehmen waren digitale Sicherheit und Vertrauen nie zu 100 Prozent gewährleistet. Durch eine Vielfalt an Next-Generation-Sicherheits- und Trust-Tools wird sich die Situation verbessern.
In den vergangenen Jahren arbeiteten Unternehmen mit diversen Verschlüsselungs-Tools. Dabei wurden unterschiedliche Werkzeuge für die jeweiligen Daten-Pools genutzt und unterm Strich nur wenige Daten überhaupt verschlüsselt. Jetzt gibt es einen Richtungswechsel hin zu "Pervasive Encryption": Verschlüsselung erfasst die gesamte Plattform einschließlich Datenbanken, Anwendungen, Netzwerkverkehr und Dateisysteme, Speichereinheiten, System-Logs, und APIs für die Kommunikation mit der Außenwelt jenseits der eigenen Plattform.
IDC sagt vorher, dass bis 2022 die Hälfte aller Server-Plattformen eine Art Pervasive Encryption auf Hardware und Betriebssystemen laufen hat. Die KI werde die Arbeit der Cybersicherheits-Teams dramatisch verändern und ihre Effizienz in der Abwehr von Attacken signifikant erhöhen. Das sei wichtig, denn in den nächsten fünf Jahren seien herkömmliche Cybersicherheits-Architekturen den sich rasant ausweitenden Angriffsflächen (hybride Cloud-Infrastrukturen, IoT, Mobile und DevOps-Umgebungen) nicht mehr gewachsen.
Heute sind den Marktforschern zufolge nur 30 Prozent des Threat- und des Vulnerability-Managements automatisiert. Diese Bereiche lägen weit hinter Disziplinen wie Identity- und Trust-Management zurück. In den nächsten drei bis vier Jahren werden Anbieter von Threat-Management-Lösungen den Level der Automatisierung deutlich erhöhen, indem sie Analytics, Machine Learning und andere Data Science-Modelle nutzen, um Menschen bei mindestens 50 Prozent der Threat-Management-Ereignisse außen vor zu lassen. Gleichzeitig werde das Monitoring der Angriffsflächen deutlich verbessert.
Die Auguren erwarten weiter, dass überprüfbare digitale Identitäten im großen Stil kommen werden. Eine überraschend große Anzahl von Menschen könne sich heute nicht digital ausweisen, so die Marktforscher. Mehr als 1,5 Milliarden Personen seien damit immer noch von der Teilnahme an der Wirtschaft des 21. Jahrhunderts ausgeschlossen. Sie können Finanz-, Gesundheits- oder Behörden-Services nicht nutzen. Auch in entwickelten Volkswirtschaften können digitale Ausweise meist nur für einen bestimmten Anwendungsfall verwendet werden.
Um dieses Problem anzugehen, nutzen manche Regierungen und nichtstaatliche Organisationen (NGOs) Blockchain-basierte Identitätsdienste, um den Bürgern eine Möglichkeit zu bieten, sich auszuweisen. Länder wie Estland, Singapur und Indien sind Beispiele dafür. Entscheidend dabei ist, dass eine Identität über mehrere Use Cases hinweg verwendet werden kann.
Blockchain-Technologien versprechen die sichere Identifikation im Netz, stehen aber noch ganz am Anfang. Die Anforderungen an Infrastruktur wie Speicher und Netzwerke ist gerade bei großen Projekten noch unerforscht. Auch die Basisprotokolle, die erforderlich sind, um Identity-Management-Programme im großen Stil zu betreiben und abzusichern, sind noch in der Entwicklung.
IDC moniert, dass es zu wenige Talente gebe, die das Blockchain-Thema voll verstanden hätten. Es ist eine Technologie in einem frühen Reifestadium, für die sich derzeit eine Reihe von Technikern interessiert, weniger Regulatoren oder Business Manager. Um Geschäftsmodelle zu kreieren, die sich mit Blockchain-basierten Identitätsprogrammen beschäftigen, wird aber mehr als eine Handvoll Techniker nötig sein.
These 10: Bis 2014 werden die vier großen Public-Cloud-Plattformen 80 Prozent der IaaS- und PaaS-Deployments hosten. Doch bis 2024 werden 90 Prozent der 1000 größten Unternehmen auf Multicloud- und Hybrid-Technologien setzen, um den Lock-in-Effekt abzufedern.
Wie schon in den vergangenen Jahren prognostiziert, konsolidiert sich die Marktmacht auf wenige Cloud-Megaplattformen weltweit. In mancher Hinsicht bringt das Vorteile: Die Innovationskraft des Marktes bündelt sich aus Sicht von Software-Entwicklern, Dienstleistern und anderer Teilnehmern an Ökosystemen um eine begrenzte Anzahl von Plattformen. Eine unproduktive Fragmentierung wird vermieden. Auf der anderen Seite gibt die starke Machtkonzentration den Kunden das Gefühl, keine Auswahl zu haben und von ein oder zwei dominanten Anbietern abhängig zu sein.
Tatsächlich werden trotz dieser Konzentration viele Unternehmen weiter ihre eigenen Multi-Cloud-Umgebungen pflegen. In einer kürzlich von IDC initiierten Umfrage zum Thema Infrastructure as a Service (IaaS) gaben fast 60 Prozent der Teilnehmer an, dass sie eine - weitgehend nicht integrierte - Multicloud-IaaS-Umgebung nutzten. Drei Viertel arbeiten mit einem Haupt- und einem oder mehreren Nebenanbietern zusammen. Ihr Argument für die Multicloud-Nutzung ist die bessere Unterstützung verschiedener Applikationen und Anwendungsfälle.
Für die nächsten vier bis fünf Jahre ist zu erwarten, dass die Lock-in-Effekte eher schwächer werden. Die Einführung integrierter Hybrid- und Multicloud-Tools und -Strategien macht's möglich. Das ganzheitliche Distributed-Cloud-Modell wird durch Container-Technologien wie Kubernetes und Container-Management-Plattformen massiv unterstützt.
Die Cloud-Megaplattform-Player werden diese Hybrid- und Multicloud-Funktionen unterstützen und die Integration der On-Premise- und Edge-Lösungen der Kunden ermöglichen. Sie werden beispielsweise Multicloud-Support für Kubernetes-Umgebungen anbieten. Das wird auf andere Bridging- und Integrations-Services ausgedehnt.
In den nächsten drei Jahren wird eine integrierte Hybrid- und Multicloud-Management-Strategie zu einer Schlüsselfähigkeit für Unternehmen. Wer keine gute Integrationsstrategie hat, muss mit wirtschaftlichen Nachteilen bei der Ressourcennutzung rechnen. Außerdem werden solche Betriebe nur einen limitierten Zugang zu den besten verfügbaren Technologieinnovationen haben. Sie werden mehr Zeit benötigen, um Probleme zu lösen, und auf einige wenige Anbieter angewiesen sein.
Unternehmen sollten also eine integrierte Hybrid- und Multicloud-Strategie erarbeiten, mit der sie die Vorteile der einzelnen Public-Cloud-Plattformen nutzen können. Sie sollten sich diesbezüglich vor allem mit Technologien beschäftigen, die offene Protokolle unterstützen. Sie sind die Garantie dafür, dass Multi-Cloud-Umgebungen in der Breite genutzt werden können.
Wichtig ist es, ein Verzeichnis der eingesetzten Management-Tools zu pflegen, um den Überblick zu behalten. Hybrid- und Multi-Cloud-Umgebungen sind komplex. Ohne Automatisierung, gutes Monitoring und Management sind sie kaum zu verwalten.