Unklare Zuständigkeiten beim Endkunden
Die Ergebnisse der jüngsten IDC-Studie zum Thema Big Data legen den Schluss nahe, dass IT-Organisationen und Fachbereiche zwar um das Datendilemma wissen, aber "auf dessen Breite und Intensität oftmals lediglich mit punktuellen Lösungsansätzen reagieren", so das Fazit der Analysten.
Wolf Lichtenstein, Vice President der DACH-Region bei SAS, bestätigt diese Erkenntnis, und beschreibt am Beispiel der Handelsunternehmen, wo der Schuh in der Praxis drückt: "Oftmals ist intern nicht geregelt, in welchen Zuständigkeitsbereich die Informationsaufbereitung fällt, die einheitlich für das ganze Unternehmen funktionieren muss". Zusammenarbeit sei deshalb das A. und O: "Sowohl Finanz- und Markt- als auch Kunden- und Prozessdaten müssen gesammelt und miteinander verknüpft werden. Dabei kommt es vor allem darauf an, dass die beteiligten Fachbereiche Hand in Hand arbeiten."
Hemmschuh IT-Infrastruktur
Eine stärkere Verzahnung bedarf es zudem auf IT-Infrastruktur-Seite, um aus Massendaten wertvolle Erkenntnisse zu gewinnen. Dezentrale Silo-Strukturen, wie sie in der IT-Landschaft der Anwendern laut Lündendonk überwiegend vorzufinden sind, behindern dies: "Hier werden die Daten nicht geschlossen an einen Server übermittelt, sondern einzeln hinzugezogen", konstatieren die Marktanalysten. Das erschwere und verlangsame massiv die Verknüpfung und Analyse der Informationen.
Matthias Zacher, Senior Consultant bei IDC, geht davon aus, dass viele Organisationen künftig hybride Szenarien aus vorhandener und neuer Technologie entwickeln werden, um sich der Herausforderung Big Data zu nähern. "Die ersten Ansätze sind bereits sichtbar", so Zacher.
Das deckt sich mit den Erkenntnissen des Marktforschungsinstituts Experton: 45 Prozent der befragten IT-Verantwortlichen in Deutschland bezeichneten demnach ihre IT-Infrastruktur als die größte Herausforderung. Sie sei nicht flexibel und skalierbar genug für die Verwaltung und Analyse großer Datenmengen. 36 Prozent planen in diesem Zusammenhang den Aufbau neuer Storage-Architekturen, um Analysen in Echtzeit zu ermöglichen. Dabei ist die horizontale Skalierbarkeit ein ebenso großes Thema wie Performance und Hochverfügbarkeit.
Dazu gelte es, "im ersten Schritt eine Infrastruktur aufzusetzen, die über eine geeignete Bandbreite, Performance, Dichte und Content-Management verfügt", sagt Dieter Schmitt, Director Channel Sales Germany bei NetApp. "Nur so können die Daten zu Beginn überhaupt verarbeitet werden."
Laut Thilo Precht, Head of SAP Center of Excellence Central Europe bei Fujitsu, bedarf es obendrein neuer Datenbank-Technologien. "Mit herkömmlichen Datenbanken kann man diese Datenflut nicht mehr wirtschaftlich und effektiv bearbeiten. Neue Technologien fordern Unternehmen aber nicht nur hinsichtlich des tatsächlichen Speicherns und Archivierens von Daten, sondern auch in deren Verarbeitung."
Scheu vor externen Daten
Als Quellen für ihre Big Data-Projekte nutzen mehr als die Hälfte der von IBM im Rahmen einer weltweiten Studie befragten Unternehmen vorrangig interne Daten. Der Grund: Sie sind häufig bereits gesammelt, integriert, strukturiert und standardisiert. Weniger als die Hälfte ziehen externe Quellen heran, die Einfluss auf den Absatz oder andere unternehmensrelevante Parameter haben.
Auch beziehen lediglich 43 Prozent der Unternehmen, die bereits Big Data-Initiativen ins Leben gerufen haben, die Informationen aus Social-Media-Kanälen in ihre Analysen mit ein - obwohl gerade diese wertvolle Kundeninformationen liefern können.
Ursachen dafür sind der Studie zufolge, dass die Unternehmen unsicher sind, wie sie mit den individuell gefärbten Inhalten aus den sozialen Medien umgehen sollen. Zudem mangelt es ihnen häufig an der entsprechenden Kompetenz: Nur 25 Prozent der Befragten gaben an, auch unstrukturierte Daten analysieren zu können. Und weniger als die Hälfte nutzen Tools, die natürliche, unstrukturierte Texte analysieren können,