CP: Weshalb sehen Sie hier das Risiko von "Storage-Spekulanten"?
Braun: Alle großen Anbieter im IT-Markt - unter anderem Google, Amazon, Apple, Microsoft, Dell, IBM, - haben riesige Datencenter aufgebaut - oder sind gerade dabei, diese aufzusetzen. Diese Rechenzentren benötigen gigantische Storage-Kapazitäten. Microsoft beispielsweise bietet Office-365-Kunden kostenfrei fünf Gigabyte Speicherplatz. Diese Anbieter ziehen einen Großteil der Festplattenproduktion vom Markt ab. Wenn jetzt noch das Datenvolumen massiv wächst, dann werden diese Ressourcen knapp. Mögliche Naturkatastrophen haben damit noch fatalere Auswirkungen, als wir sie vergangenes Jahr nach der Flut in Thailand erleben mussten. Große Nachfrage bei knappem Angebot aber ruft erfahrungsgemäß auch Akteure auf den Plan, die mit der Technologie bzw. diesen Gütern selbst gar nichts zu tun haben, beispielsweise Banken, die damit handeln möchten.
CP: Ist das nicht ein etwas überzogenes Schreckens-Szenario?
Braun: Keineswegs. Nehmen wir an, Google kauft einen Großteil der Storage-Produktion, um seine Rechenzentren auszustatten. Aufgrund einer Naturkatastrophe oder eines anderen unglücklichen Umstands bei den Festplattenherstellern ist nur noch ein Viertel der Produktion verfügbar. Diese Ware könnte eine Bank oder ein Spekulant ganz einfach abgreifen, um die verknappte Ware teuer zu brokern. Mit Spekulationen dieser Art müssen wir rechnen.
- Die vier Herausforderungen von Big Data
Das Thema Big Data befasst sich eigentlich mit vier Herausforderungen: - Die schiere Menge:
Das für Unternehmen relevante Datenvolumen steigt weiter drastisch an. Heute schon werden Datenmengen im Terabyte-Bereich analysiert, in Kürze dürften Petabyte und Exabyte auf der Agenda stehen. - Der Zeitdruck:
Analysen der gewaltigen Datenberge sollten idealerweise in Echtzeit zur Verfügung stehen. Denn die Unternehmen stehen vor der Aufgabe, dass sie zeitnah auf Marktänderungen reagieren müssen. - Die mangelnde Struktur:
Die Analysen müssen immer häufig Datenquellen mit kaum strukturierten Beständen berücksichtigen. Das heißt: die Komplexität der Datenanalysen steigt. Neben den bekannten Datenquellen, etwa den vorhandenen ERP-Systemen, kommen neue hinzu. Dazu zählen Daten aus M-to-M-Applikationen, also beispielsweise Sensordaten, Daten aus On-Board-Systemen, RFID-Daten aus der Logistikkette, aber auch Daten aus Weblogs und Social-Media-Plattformen etc. - Die wachsende Anwenderzahl:
Die potenziellen internen und externen User werden immer mehr. Sie kommen beispielsweise über Self-Service-Portale, die im Web zugänglich sind.
CP: Wir setzen also heute auf eine Technologie, die dem rasanten Datenwachstum gar nicht standhalten kann?
Braun: Ja, hier wird ein Leck entstehen. Für Storage-Hersteller ist das schnelle Datenwachstum derzeit noch ein Eldorado, momentan wird gutes Geld verdient, weil sich Storage gut verkauft. Unsere Branche befindet sich momentan in einem "Verdienstrausch", aber der darf nicht blind machen. Denn es ist klar, dass der Endkunde damit verbundenen, immer weiter steigenden Kosten langfristig nicht finanzieren kann. Denn er zahlt nicht nur für die zusätzlichen Storage-Systeme, sondern auch für den Betrieb und das Management. Die Gefahr ist, dass zum Zeitpunkt, an dem dieser Zyklus seine Spitze erreicht hat, keine neue Technologie verfügbar ist, also der Technologiesprung verpasst wird.
CP: Storage-Hersteller begegnen dem Problem aber doch auch mit Lösungen zur Deduplizierung und Komprimierung…
Braun: Das Problem dabei: Massendaten erfordern schnelle Zugriffe und Auswertungsmöglichkeiten. Die Deduplizierung und Komprimierung von Daten läuft dem entgegen. Auf all die genannten Herausforderungen müssen Systemhäuser und Hersteller eine Antwort finden. Die skizzierten Gefahren werden überwiegend nicht erkannt, weil alle mit Storage derzeit gutes Geld verdienen. Unternehmen, die sich nur auf Storage konzentrieren, werden es künftig schwerer haben, auch weiterhin dieses Geld zu verdienen.