Turbo-In-Memory
Weitere Schlagworte, die die Datenbankszene umtreiben, sind In-Memory-Computing und spaltenorientierte Datenbanken - Techniken, wie sie die SAP in ihrer HANA-Appliance kombiniert. In-Memory-Systeme zeichnen sich dadurch aus, dass die Daten primär im Arbeitsspeicher vorgehalten und dort deutlich schneller verarbeitet werden können. Ist das entsprechende System zudem spaltenorientiert aufgebaut, lassen sich Daten schneller lesen. Damit eignen sich diese Systeme vor allem für analytische Anwendungen (Online Analytical Processing = OLAP). Müssen dagegen oft und viele Daten in die Datenbank geschrieben werden wie im Umfeld transaktionaler Systeme (Online Transaction Processing = OLTP), sind zeilenorientierte Datenbanken im Vorteil.
All-in-One
Trotz aller Neuerungen glauben die Befürworter der klassischen RDBMS nicht an das Ende ihrer Systeme. Die neuen Techniken würden über kurz oder lang assimiliert. Zudem hätten die etablierten Systeme bereits heute vergleichbare Funktionen im Programm, wie sie beispielsweise Hadoop bietet. Darüber hinaus forcieren die alten Hasen im Datenbankgeschäft derzeit einen Appliance-Ansatz. Mit vorkonfigurierten Systemen aus Hardware und Software soll den Kunden eine Komplettlösung für das Daten-Handling geboten werden. Oracle offeriert dafür seine Exadata-Maschinen, IBM hat im Rahmen seiner Puresystems spezielle Datenbank-Appliances im Portfolio.
Jetzt aber flott!
Steht mit der Infrastruktur die Big-Data-Basis, geht es im nächsten Schritt darum, Nutzen aus den Daten zu ziehen. Dabei kommen Werkzeuge rund um Analytics und Business Intelligence (BI) ins Spiel. Wie im Datenbankumfeld hat sich auch in dieser Szene in der jüngsten Vergangenheit einiges verändert. Neben dem klassischen Reporting geht es heute verstärkt darum, Daten in Echtzeit zu verarbeiten und zu analysieren, beispielsweise Finanzinformationen kontinuierlich auszuwerten, um Kreditkartenbetrügern auf die Schliche zu kommen. Ein anderes Beispiel ist eine intelligentere Verkehrssteuerung. So werden in Stockholm in jeder Sekunde 250.000 Standortdaten von Verkehrsteilnehmern, Video- und Sensorsystemen erfasst, ausgewertet und zur Verkehrssteuerung eingesetzt.
In den Unternehmen soll das Management mit in Echtzeit vorliegenden Ergebnissen in die Lage versetzt werden, schnellere und vor allem bessere Entscheidungen zu treffen. Es werde immer wichtiger, in einem sich rasch verändernden Umfeld Entwicklungen frühzeitig zu erkennen, sagen BI-Experten. Nur dann könne man auch rechtzeitig darauf reagieren.
Das neue Orakel
Diese Trends führen in der logischen Konsequenz dazu, dass für die Unternehmen Werkzeuge wichtiger werden, die ihnen helfen, künftige Entwicklungen möglichst exakt vorherzusagen. Viele BI-Anbieter haben ihr Portfolio bereits mit entsprechenden Werkzeugen für Simulationen und Predictive Analytics erweitert. Genauso schnell, wie die BI-Systeme Ergebnisse liefern sollen, müssen diese aber auch beim Nutzer landen. Die wollen sich heute ihre Analysen selbst zusammenstellen. Das Schlagwort dafür heißt "Self-Service-BI". Von den Anbietern sind dafür übersichtliche und einfach zu bedienende Dashboards gefordert. Darüber hinaus ist immer mehr ein mobiler Zugriff auf Informationen und Analysewerkzeuge gefragt.
- In sieben Schritten zum Big-Data-Erfolg
Teil- oder unstrukturierte Daten in großer Menge erfolgreich analysieren können - das ist das Ziel von Big-Data-Projekten. Aber welcher Weg führt dorhin? - 1. Die jeweiligen Ziele definieren
Die Anzahl der möglichen Big-Data-Analysen ist Legion. Im ersten Schritt muss also geklärt werden: Was möchten Sie erreichen? Was bringt Ihnen die Auswertung? Möchten Sie mehr Kunden ansprechen, Ihren Umsatz steigern oder neue Geschäftsfelder erschließen? Und welche Ziele sind überhaupt erreichbar? - 2. Die Datenquellen identifizieren
Dann müssen die verfügbaren Datenquellen analysiert werden: Welche sind wichtig? Wie und in welcher Form lässt sich auf die benötigten Daten zugreifen? Meist ist es sinnvoll, sich zunächst auf ausgewählte Quellen zu konzentrieren. Hier schon sind Datenschutzaspekte zu berücksichtigen. Manche Daten dürfen gar nicht oder nur unter bestimmten Voraussetzungen gespeichert und analysiert werden. - 3. Mit IT- und anderen Bereichen vernetzen
Die IT sollte frühzeitig eingebunden werden. Um maximalen Nutzen aus den Auswertungen zu ziehen, sind auch andere Fachbereiche zu involvieren. Und spätestens in dieser Phase sollte das Management einbezogen werden, das breite Unterstützung garantiert. - 4. Performance und Verfügbarkeit klären
Die Erwartungen bezüglich Performance und Verfügbarkeit müssen so früh wie möglich dingfest gemacht werden. Dabei spielen Themen wie Analyse-Latenzzeit, Auswertungen in Echtzeit und In-Memory-Technik eine wichtige Rolle. - 5. Die Ergebnisse in Prozesse einbinden
Erfolgreiche Big-Data-Analytics-Projekte binden die Analysen und deren Ergebnisse in die Geschäftsprozesse ein. Nur so führen die gewonnenen Erkenntnisse zu einer Verbesserung. - 6. Big Data in Analysestrukturen einfügen
Big-Data-Analytics ersetzen nicht zwingend vorhandene Analysen, beispielsweise Data Warehouses. Oft sind sie vielmehr eine Ergänzung. Folglich sollten sie in vorhandene BI-Architekturen oder -Landschaften integriert werden. - 7. Komplexität und Dynamik abschätzen
Welche Daten mit welchem Volumen kurz- und mittelfristig verfügbar sein werden, ist im Vorfeld schwer abschätzbar. Deshalb gilt es, die Einbindung neuer Datenquellen oder zusätzlicher Analysen einzukalkulieren, um einen nachhaltigen Erfolg des Projekts zu gewährleisten.
Richtig kombiniert
Angesichts all dieser neuen Herausforderungen und Veränderungen könnte man befürchten, bestehende Systeme komplett ablösen und alles neu aufbauen zu müssen. Doch das ist längst nicht der Fall, sagt Carsten Bange vom Business Application Research Center (Barc). Es gehe nicht darum, die klassischen BI-Suiten und Data Warehouses gegen neue Big-Data-Tools auszutauschen, sondern vielmehr darum, die neuen Techniken sinnvoll in die bestehenden Systeme zu integrieren und so mit den bereits vorhandenen Möglichkeiten zu kombinieren. (rb)