Anwenderakzeptanz
"Hier gibt es einige interessante Dinge", bilanziert Bange seine Beobachtungen des Markts. In der Adaption dieser Techniken seien allerdings amerikanische Anwenderunternehmen wie so oft ein ganzes Stück weiter, berichtet der Barc-Experte. Hierzulande seien Produkte wie beispielsweise Hadoop noch weitgehend unbekannt. Deutsche Firmen müssten in diesem Fach noch einige Hausaufgaben erledigen. Neben der Organisation, wie mit den anfallenden Daten umzugehen ist, sowie Architekturfragen müssten sich die Verantwortlichen eben auch mit neuen Produkten und Techniken beschäftigen.
COMPUTERWOCHE Marktstudie
Datenqualität (149,90 €)
Was tun für eine bessere Datenqualität? Wir haben unsere Leser aus dem IT-Management gefragt, ob und mit welchem Erfolg sie für einen sauberen Datenbestand sorgen.
Das dürfte allerdings nicht einfach werden. Infrastrukturen, die das Big-Data-Problem zentral und unkompliziert lösen, sind derzeit nicht in Sicht. Gartner zufolge wird auch in Zukunft kein zentrales Datenreservoir existieren, in das Anwender einfach alle benötigten Informationen hineinkippen könnten. Vielmehr werde es je nach Anforderung unterschiedliche logische Data Warehouses für Informationen aus verschiedenen Quellen geben.
Nach Einschätzung von Experton-Group-Analyst Zilch stellt es für die IT-Hersteller eine gewaltige Herausforderung dar, alle vier Dimensionen von Big Data in einer Lösung abzudecken. "Ich halte es für unwahrscheinlich, dass dies einem Anbieter gelingt", prognostiziert der Experte. Zwar behaupteten IT-Riesen wie IBM und Oracle, das zu können, doch ihre Lösungen behöben immer nur Teile des Problems. "Es wird nicht die Big-Data-Superlösung geben", ist sich Zilch sicher. Und auch aus Sicht seines IDC-Kollegen Spies ist das Feld an dieser Stelle gerade für junge innovative Firmen weit offen: "Längst ist noch nicht alles erfunden, was man an dieser Stelle erfinden könnte".