"Storage ist eine wichtige Basistechnik für Big Data"
CW: Was ist mit dem Thema "Intelligent Storage", von dem im Zusammenhang mit Big Data auch häufig die Rede ist?
Bange: Storage ist eine wichtige Basistechnik für Big Data - als Architekturebene, die zwischen der Datenintegration und Analyse angesiedelt ist. Man muss kein Prophet sein, um vorhersagen zu können, dass diese Architekturebene noch wichtiger wird. Schließlich gilt es, immer größere Datenmengen so vorzuhalten, dass immer schnellere und/oder komplexere Analyseverfahren möglich sind. Bei aller Euphorie um Big Data sollte man aber berücksichtigen, dass es bei den Anwenderunternehmen auch in Zukunft nicht nur Echtzeitauswertungen oder die Analyse von Event- oder Streaming-Daten, sondern nach wie vor auch klassische Data-Warehouse-Abfragen geben wird. Insofern ist der Begriff "Intelligent Storage" sicher angebracht.
CW: Gerät das Enterprise-Content-Management auch in den Einfluss der Big-Data-Technologien?
Bange: Enterprise-Content-Management hat zunächst eine andere Zielsetzung als Big Data, denn hier steht die Verarbeitung von Dokumenten beziehungsweise unstrukturierten Daten im Vordergrund. Big Data hingegen ist auf die Analyse von Daten fokussiert und damit verbunden auf die Frage: Wie komme ich an die Inhalte und Informationen? Hier kann ECM als Lieferant für Big Data dienen, indem es zum Beispiel durch Klassifikationstechnologien Dokumente und Texte ergänzt sowie strukturiert und damit besser analysierbar macht.
Big Data formt die Klammer zur Zusammenführung und Verarbeitung ganz unterschiedlicher Daten, zu denen eben auch aufbereitete Dokumente aller Art (inklusive Web-Quellen sowie Social Media) gehören. Zudem bietet Big Data die technischen Möglichkeiten der Verarbeitung der Datenmengen sowie die übergreifende analytische Sicht. Umgekehrt kann ECM auch ein Abnehmer der Ergebnisse von Big-Data-Analysen sein. Mit diesen lassen sich Prozesse anstoßen, Personen informieren sowie Dokumente und Reports schreiben und verteilen. Das spielt in den klassischen ECM-Bereich der Verwaltung und Bereitstellung von Inhalten ebenso hinein wie in die Themen Business-Process-Management und Collaboration.
- Die vier Herausforderungen von Big Data
Das Thema Big Data befasst sich eigentlich mit vier Herausforderungen: - Die schiere Menge:
Das für Unternehmen relevante Datenvolumen steigt weiter drastisch an. Heute schon werden Datenmengen im Terabyte-Bereich analysiert, in Kürze dürften Petabyte und Exabyte auf der Agenda stehen. - Der Zeitdruck:
Analysen der gewaltigen Datenberge sollten idealerweise in Echtzeit zur Verfügung stehen. Denn die Unternehmen stehen vor der Aufgabe, dass sie zeitnah auf Marktänderungen reagieren müssen. - Die mangelnde Struktur:
Die Analysen müssen immer häufig Datenquellen mit kaum strukturierten Beständen berücksichtigen. Das heißt: die Komplexität der Datenanalysen steigt. Neben den bekannten Datenquellen, etwa den vorhandenen ERP-Systemen, kommen neue hinzu. Dazu zählen Daten aus M-to-M-Applikationen, also beispielsweise Sensordaten, Daten aus On-Board-Systemen, RFID-Daten aus der Logistikkette, aber auch Daten aus Weblogs und Social-Media-Plattformen etc. - Die wachsende Anwenderzahl:
Die potenziellen internen und externen User werden immer mehr. Sie kommen beispielsweise über Self-Service-Portale, die im Web zugänglich sind.