Neue Lösungen der Anbieter
Die Auswirkungen von Big Data reichen allerdings weit über den Softwarebereich hinaus. Spies zufolge müssten die Anwender angesichts der rasant wachsenden Datenmengen auch ihre Netzkapazitäten im Auge behalten und gegebenenfalls mit neuer leistungsstärkerer Technik ausbauen. "Das Thema Big Data könnte auch die künftigen Rechnerarchitekturen grundlegend verändern", führt der Analyst aus. In klassischen Architekturen würden die Daten von Plattensystemen zur CPU transportiert, dort verarbeitet und die Ergebnisse wieder zurück auf die Speicher geschrieben. Wachsen die Datenmengen weiter an, dürfte dieses Modell bald an seine Grenzen stoßen. Mittlerweile gebe es Überlegungen, die Rechenleistung zu den Daten zu bringen. Vanessa Alvarez, Analystin von Forrester Research, bezeichnet herkömmliche Speicherarchitekturen als zu statisch und unflexibel für die Big-Data-Anforderungen. Besser geeignet seien dedizierte Appliances, die Storage, Computing- und Netzressourcen mit Analytics-Funktionen in einem Gerät kombinierten. Hersteller wie Oracle haben diesen Ansatz in Produkten wie den "Exadata"-Maschinen bereits aufgegriffen.
Darüber hinaus droht Spies zufolge die klassische Festplattentechnik zu einem Flaschenhals zu werden. Mittlerweile versuchen die Storage-Hersteller, die Speicher-Performance mit Flash-basierenden SSDs zu pushen. Darüber hinaus forschen sie längst an noch leistungsfähigeren Storage-Techniken. Nanoröhren und holografische Speicher sind die Stichworte.
Beispielsweise hat IBM erst kürzlich mit seiner Racktrace-Technik ein neues Speicherkonzept vorgestellt. Dabei werden Informationen in Form von winzigen, gegensätzlich magnetisierten Regionen in einem Nanodraht gespeichert. IBM zufolge lässt sich damit eine extrem hohe Speicherdichte ohne Performance-Einbußen erreichen. Allerdings werde es noch einige Jahre dauern, bis die Technik marktreif sei.
- 1. Strategische Ziele defnieren
Ausgangspunkt für erfolgreiche ECM-Projekte sollte immer eine klare Nutzenanalyse sein, die strategische Ziele festlegt und konkrete Mehrwerte für das Unternehmen definiert. Die Gesamtkosten sollten berechnet sowie mögliche Risiken und Hürden kalkuliert werden. - 2. Spezifische Anforderungen berücksichtigen
Fachliche Anforderungen sowie die Ansprüche aller Anwender sollten eingangs differenziert beschrieben werden. Nur ein sorgfältig erstelltes Fachkonzept kann dabei helfen, die Ziele zu erreichen und den Rahmen für Aufwand und Ressourcen präzise zu stecken. - 3. Einfachheit als Prinzip
Gleichzeitig fordert die d.velop AG Einfachheit zum Prinzip der konzeptionellen Planung und der entsprechenden Lösung zu erheben. Eine zu komplexe ECM-Lösung würde nur schwer von den Benutzern akzeptiert und zu Lasten der Produktivität gehen. Die geforderte Einfachheit würde sich aber nicht auf den Funktionsumfang beziehen. Vielmehr sollten Implementierung, Bedienung, Betrieb und Pflege des ECM-Systems leicht von der Hand gehen. - 4. Lösungen vergleichen
Hat ein Unternehmen erstmal die Ziele und Anforderungen definiert, kann es sich auf dem Markt nach einer geeigneten ECM-Lösung umschauen. Hilfreich bei der Marktevaluierung ist laut d.velop AG ein differenziert ausgearbeitetes Fachkonzept. Neben dem Funktionsumfang sollten bei der Auswahl der Lösung vor allem auch die Benutzerfreundlichkeit berücksichtigt werden, aber auch Innovationsfähigkeit, Flexibilität und partnerschaftliche Kultur des Herstellers. - 5. Projekte intelligent planen
Zu einem intelligenten Projektmanagement gehört laut der d.velop AG, dass genaue Vorgaben definiert und präzise Controlling-Prozesse implementiert werden sowie Mitarbeiter mit entsprechenden Fähigkeiten bereitgestellt respektive die Schulung von geeigneten Mitarbeitern geplant werden. - 6. Marketing für ECM-Projekte
Im Rahmen des Projektmanagements empfiehlt die d.velop AG IT-Entscheidern, auch an das Projekt-Marketing für ihre ECM-Projekte zu denken. Da Akzeptanzprobleme zu vielen negativen Effekten führen könnten, sollten Mitarbeiter zunächst in die Technologie eingewiesen und so dafür gewonnen werden. - 8. Phase der Optimierung
Ebenfalls nicht vergessen werden darf die Zeit nach dem Rollout. Denn mit der Implementierung sei das ECM-Vorhaben längst nicht ausgeschlossen. Vielmehr sollte laut der d.velop AG dann eine Phase für Optimierungsprozesse unter realen Praxisbedingungen eingeläutet werden.
100 Millionen Dollar für Big Data
IBM will weiter in Big Data investieren. Rund 100 Millionen Dollar sollen in der nächsten Zeit in Forschung und Entwicklung für diesen Bereich fließen. Ziel der Initiative sei es, neue Produkte und Services auf den Markt zu bringen, die Unternehmen dabei unterstützen sollen, die steigenden Datenfluten in den Griff zu bekommen. Neben eigenen Entwicklungen und Zukäufen setzt IBM auch auf fremde Techniken wie die NoSQL-Lösung "Hadoop". Diese bietet ein hochskalierbares Filesystem, um unterschiedlich strukturierte Daten zu speichern, sowie ein Entwicklungs-Framework, um Programme für eine parallelisierte Verarbeitung der Daten zu erstellen. Hadoop basiert auf Googles Map-Reduce-Ansatz und wird von der Apache Foundation als Open-Source-Lösung bereitgestellt.
Mittlerweile haben verschiedene namhafte Hersteller Hadoop-basierende Produkte angekündigt. Oracle will beispielsweise eine Big Data Appliance mit NoSQL-Datenbank und Hadoop-Werkzeugen herausbringen. Die EMC-Tochter Greenplum plant, ihre analytische Datenbank mit einer eigenen Hadoop-Distribution zu kombinieren. Und Microsoft bietet für seinen SQL Server Hadoop-Konnektoren an.
Neben NoSQL-Lösungen gibt es eine Reihe weiterer Techniken, die laut Herstellern den Anwendern im Umgang mit Big Data helfen könnten. Dazu zählen beispielsweise spaltenorientierte Datenbanken und In-Memory-Techniken, die Abfragen deutlich beschleunigen sollen. Neben den großen Anbietern wie SAP, die mit "HANA" eine auf In-Memory-Technik basierende BI-Appliance anbietet, sehen an dieser Stelle auch kleinere Spezialanbieter ihre Chance. Dazu zählen beispielsweise Exasol aus Nürnberg und Parstream aus Köln.