Unternehmen kämpfen mit einer Flut an Daten, die aus zahlreichen Quellen und in unterschiedlichen Formaten in ihre IT-Systeme strömen. Es wird zunehmend schwieriger, aus diesen Datenbergen zukunftsrelevante Informationen herauszufiltern. Hier sind Big-Data-Spezialisten gefragt.
So leicht der Begriff über die Lippen geht, so sperrig bleibt die Materie: Schon die Definition des Schlagworts "Big Data" kann in einen Schlagabtausch münden. Dabei heißt Big Data doch übersetzt erst einmal nichts anderes als "große Daten".
Und größer werdende Datenvolumina an sich sind für die IT nichts Neues. Schon in der Vergangenheit versuchten IT-Administratoren und Controller, mit komplexer werdenden Filtermethoden und Data-Minig-Tools, den in Datawarehouses gestauten Datenfluten wertvolle Erkenntnisse zu entreißen. Was also ist das Besondere am neuen Phänomen Big Data?
Die Besonderheiten
Die Datenmenge steigt im Gegensatz zu früheren Zeiten nicht nur sprunghaft an, sondern in einem Maße, wie sie die IT-Branche bis dato nicht kannte. IDC schätzt, dass das Datenvolumen von 0,8 Zettabyte im Jahr 2009 bis zum Jahr 2020 auf 35 Zettabyte anwachsen wird. Anschaulich gemacht: der Zahl 35 folgen 21 Nullen. Die installierte Speicherkapazität werde laut IDC bis 2014 auf 79,8 Exabyte emporschnellen. Zum Vergleich: 2007 waren es rund 6,7 Exabyte.
Doch Big Data ist nicht nur eine Frage des Volumens. Zunehmend gehe es auch um kleine Datenmengen, die innerhalb eines komplexen Szenarios verarbeitet werden müssen. "Big Data bedeutet vor allem die sinnvolle Kombination von Daten, um daraus Muster zu erkennen, die Antworten auf bestimmte Fragestellungen liefern", erklärt Dinko Eror, Senior Director Global Services Lead bei EMC Deutschland.
- 4 Kriterien, die für Big Data kennzeichnend sind (Quelle: IDC, 10/2012)
- Big Data Technologie-Stack (Quelle: IDC, 10/2012)
- Permanentes Datenwachstum (Quelle: IDC, 10/2012)
- Datenwachstum aus unterschiedlichsten Quellen (Quelle: IDC, 10/2012)
- Einschätzungen der Anwender zum Datenwachstum (Quelle: IDC, 10/2012)
- Herausforderung bei Datenmanagement und Datenhaltung (Quelle: IDC, 10/2012)
- Technologische Herausforderungen beim Datenmanagement(Quelle: IDC, 10/2012)
- Was ist neu an der Big-Data-Technologie? (Quelle: IDC, 10/2012)
- Neue Generation von Technologien und Architekturen(Quelle: IDC, 10/2012)
- Big Data: Lösungen und Technologie (Quelle: IDC 10/2012)
- Big Data - Herausforderungen aus Sicht der IT-Entscheider(Quelle: IDC, 10/2012)
- Potenzial von Big Data aus Business-Sicht (Quelle: IDC, 10/2012)
- Big-Data-relevante Geschäftsbereiche (Quelle: IDC, 10/2012)
- Organisationsmodelle für Big Data (Quelle: IDC, 10/2012)
- Welche Anbieter bevorzugen Anwender bei der Umsetzung von Big-Data-Projekten? (Quelle: IDC, 10/2012)
- Wie groß sind 1 Zettabyte? (Quelle: IDC, 10/2012)
Ein weiteres Charakteristikum ist die Vielfalt der Quellen und Formate. Künftig werde es entscheidend darauf ankommen, strukturierte Daten (beispielsweise Kennzahlen), ebenso wie semistrukturierte (zum Beispiel XML-Daten), und unstrukturierte Daten (Videos, Bilder) schnell und effizient zu verwalten, zu verarbeiten und zu analysieren. Herkömmliche Methoden versagen hier. Denn in der Regel können sie keine Echtzeit-, Simulations- oder Maschinendaten verarbeiten und darin in kürzester Zeit Muster erkennen.
Ist Big Data beim Endkunden ein Thema?
Weshalb Anwender neue, "Big-Data-fähige" Technologien brauchen, skizzieren die Marktanalysten von Lünendonk beispielhaft am Alltag der Handelsunternehmen: Sie werden täglich mit einer Flut von Kunden-, Finanz-, Transaktions- und Prozessdaten überhäuft. Zusätzlich treiben mobile Endgeräte die Datenvolumen in die Höhe: Bargeldlose Zahlungssysteme über Terminals, mobile Endgeräte oder Geldkarten, RFID-Chips oder Kundendaten aus den Online-Kanälen strömen dabei im Sekundentakt in die IT-Systeme der Handelsunternehmen.
- Die vier Herausforderungen von Big Data
Das Thema Big Data befasst sich eigentlich mit vier Herausforderungen: - Die schiere Menge:
Das für Unternehmen relevante Datenvolumen steigt weiter drastisch an. Heute schon werden Datenmengen im Terabyte-Bereich analysiert, in Kürze dürften Petabyte und Exabyte auf der Agenda stehen. - Der Zeitdruck:
Analysen der gewaltigen Datenberge sollten idealerweise in Echtzeit zur Verfügung stehen. Denn die Unternehmen stehen vor der Aufgabe, dass sie zeitnah auf Marktänderungen reagieren müssen. - Die mangelnde Struktur:
Die Analysen müssen immer häufig Datenquellen mit kaum strukturierten Beständen berücksichtigen. Das heißt: die Komplexität der Datenanalysen steigt. Neben den bekannten Datenquellen, etwa den vorhandenen ERP-Systemen, kommen neue hinzu. Dazu zählen Daten aus M-to-M-Applikationen, also beispielsweise Sensordaten, Daten aus On-Board-Systemen, RFID-Daten aus der Logistikkette, aber auch Daten aus Weblogs und Social-Media-Plattformen etc. - Die wachsende Anwenderzahl:
Die potenziellen internen und externen User werden immer mehr. Sie kommen beispielsweise über Self-Service-Portale, die im Web zugänglich sind.
Aber ist es Endkunden überhaupt ein Anliegen, all diese Daten zu speichern, zusammenzuführen, auszuwerten und zu analysieren, wie es die Anbieter einschlägiger Lösungen glauben machen wollen?
Dr. Carsten Bange vom Business Application Research Center (BARC) meint: Ja, auch mit Blick auf Mittelstandskunden in Maschinenbau: "Trotz der Informationsflut erkennen Unternehmen den Nutzen dieser Daten."
Noch einen Schritt weiter geht EMC-Manager Dinko Eror: "Neue Big Data Analyse-Tools werden in den nächsten fünf Jahren über Gewinner und Verlierer entscheiden", lautet seine Botschaft. Die meisten Hersteller aus dem Storage-, Software-Analyse- und Datenbankumfeld teilen diese Ansicht - aber auch viele Systemhäuser. Sie wiesen dem Thema Big Data in der jüngsten Systemhaus-Umfrage von ChannelPartner Platz Fünf im Ranking der Mega-Trends zu.