Auch die Management Tools für große Datenmengen seien zwar bereits erprobt, aber noch nicht kommerziell einsetzbar. So gebe es etwa Apache Hadoop, das unter anderem mit Googles BigTable NoSQL Datenbank arbeitet. Das funktioniere zwar, aber Konfiguration, Einrichtung und Management dieser Big Data-Anwendung seien noch sehr technisch geprägt und damit sehr arbeitsintensiv.
Abfrage- und Analysetools noch ohne Platzreife
Den größten Nachholbedarf vor der Platzreife sieht Forrester-Analyst Hopkins bei den Tools für Abfragen, Analysen und Transaktionsverarbeitung in verteilten Datenbanken. Wenn die einmal funktionierten, dann seien sie sowohl für neue als auch für traditionelle Formen von BI geeignet. Aber bis das soweit sei, werde es noch dauern, meint Hopkins, der explizit rät, von 1.0-Pre-Release-Versionen derzeit noch die Finger zu lassen. Allerdings seien funktionsfähige Produkte in den kommenden Monaten (also schon bald) zu erwarten.
In der Zwischenzeit, rät der Forrester-Analyst, sollten sich die Unternehmen darauf vorbereiten, ihre großen Datenmengen zu kapitalisieren. IT und Business sollten gemeinsam die neuen Gelegenheiten verstehen und die Daten identifizieren, die sich später für Echtzeitanalysen eigneten. Das sei der Weg, ein Unternehmen angemessen auf Big Data vorzubereiten.
(CIO / rb)