FIT-Manager Stefan Küsgen

"Big Data ist eine notwendige Station zur Industrie 4.0"

23.04.2014 von Regina Böckle
Bis zum Jahr 2016 soll sich der Umsatz mit Big-Data-Lösungen hierzulande auf 13,6 Milliarden Euro verdoppeln, schätzt das IT-Marktforschungsunternehmen Crisp Research. Welche Chancen und Risiken sich daraus für Systemhäuser ergeben, erläutert Stefan Küsgen, Executive Consultant SAP Partnermanagement bei Freudenberg IT (FIT), im Interview.

Was ist Ihrer Ansicht nach das Besondere am aufkeimenden Big-Data-Markt?

Stefan Küsgen: Besonders vielversprechend ist Big Data für die Fertigungsindustrie, die im Zuge der zunehmend digital vernetzten Produktionsprozesse Unmengen an Daten verarbeiten muss. Klassische BI-Tools stoßen hier an ihre Grenzen. Beherrschbar ist die Datenflut nur mit In-Memory-Technologien wie SAP HANA, die Milliarden Datensätze innerhalb von Sekunden auswertet. Dadurch lassen sich Prozesse etwa in der Materialplanung von 15 und mehr Stunden auf wenige Minuten verkürzen. Damit verbessert Big Data schon jetzt die Just-in-Time-Lieferfähigkeit der Fertigungsindustrie und ist eine unumgängliche Station auf dem Weg ins Industrie-4.0-Zeitalter.

Stefan Küsgen, Executive Consultant SAP Partnermanagement bei Freudenberg IT
Foto: Freudenberg IT

Inwieweit sind Ihrer Erfahrung nach mittelständische Unternehmen überhaupt schon bereit, die neuen Möglichkeiten der Business Analytics-Lösungen einzusetzen?

Küsgen: Der Bedarf in der mittelständischen Fertigungsindustrie wächst kontinuierlich; das rasante Datenwachstum wird als drängendes Problem wahrgenommen. Zwei Drittel der deutschen Produktionsleiter werten die steigende Datenflut als große Herausforderung, das ist ein Ergebnis der repräsentativen Studie "IT Innovation Readiness Index", die wir gemeinsam mit dem Marktforschungsinstitut Pierre Audoin Consultants (PAC) durchgeführt haben. Daher ist eine unsere vorrangigen Aufgaben, dem Mittelstand den Nutzen von Big Data zu vermitteln.

Inwiefern unterscheiden sich die Anforderungen im Bereich Big Data Analytics vom "klassischen" Systemhausgeschäft?

Küsgen: Big Data ist nichts grundlegend Neues, sondern die logische Weiterentwicklung der Themen Business Intelligence und Business Analytics, die Datenanalysen mit wesentlich höherem Detaillierungsgrad und höherer Geschwindigkeit ermöglicht. Was die Freudenberg IT als Beratungshaus in diesem Bereich auszeichnet, ist der ganzheitliche Blick auf Hardware, Software-Anwendungen und Dienstleistungen, die unseren Kunden den Nutzen vorhandener Lösungen wie SAP HANA erschließen.

Welche Folgen hat das für Systemhäuser, IT-Consultants, Reseller und Integratoren?

Küsgen: Alle Marktteilnehmer müssen sich mit der Technologie auseinandersetzen. Dabei muss der Kunde im Mittelpunkt stehen - immer vor dem Hintergrund welchen Nutzen die neue Technologie dem einzelnen Kunden, mit seinen individuellen Prozessen bringt. Dienstleister, die Managed Services anbieten, müssen sich auch mit der Hardware auseinandersetzen. Wir gehen davon aus, dass ein Großteil des zukünftigen SAP-Geschäfts auf HANA basieren wird.

Glossar zu Big Data und Data Analytics -
Predictive Analytics
das Treffen von Prognosen durch die Analyse von Daten. Im Gegensatz zur Analyse historischer Zusammenhängen und Erkenntnissen; auch durch die Analyse von Daten, die möglicherweise urächlich nicht miteinander in Zusammenhang stehen (Quelle: Bitkom)
Open Source
quelloffene Werke, zum Beispiel Software bei der man den Quellcode erhält (Quelle: Bitkom)
Open Data
Konzept zum Zugang zu hoheitlichen Daten zu jedermann, beispielsweise Auskunft über die bei einer Meldestelle gespeicherten Daten über einen Bürger und die Einrichtungen, an die die Daten übermittelt worden sind. (Quelle: Bitkom)
Metadaten
Daten zur Beschreibung von Daten, unter anderem, um Datenmodelle zu entwickeln. (Quelle: Bitkom)
Mahout
wörtlich: Elefantentreiber; hier: eine Apache-Komponente zum Aufbau von Bibliotheken für das Machine Learning MapReduce Verfahren zur Datenverwaltung und Indizierung (Quelle: Bitkom)
Machine Learning
Oberbegriff für die künstliche Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann nach Beendigung der Lernphase verallgemeinern. Das System „erkennt“ Gesetzmäßigkeiten und kann somit auch unbekannte Daten beurteilen. (siehe Wikipedia). (Quelle: Bitkom)
Lustre
Linux-basierendes Betriebssystem für den Betrieb von Cluster-Architekturen (Quelle: Bitkom)
Lambda-Architektur
Eine konstruktiv nutzbare Vorlage für den Entwurf einer Big-Data-Anwendung. Die in der Architektur vorgesehene Modularisierung spiegelt typische Anforderungen an Big-Data-Anwendungen wider und systematisiert sie. (Quelle: Bitkom)
In-Memory
Bei In-Memory werden die Daten nicht physisch auf Datenträger gespeichert und wieder ausgelesen, sondern im Arbeitsspeicher gehalten und dadurch mit sehr hoher Geschwindigkeit verarbeitet. (Quelle: Bitkom)
HANA
Ursprünglich: High-Performance Analytical Appliance; ein von SAP entwickeltes Produkt zum Betrieb von Datenbanken im (sehr großen) Hauptspeicher eines Computersystems (Quelle: Bitkom)
Hadoop
Open-Source-Version des MapReduce-Verfahrens, in verschiedenen Distributionen erhältlich. (Quelle: Bitkom)
Fraud Detection
Erkennung von Betrugsversuchen durch die Analyse von Transaktionen und Verhaltensmustern (Quelle: Bitkom)
Eventual Consistency
Eine Schnittmenge des CAP-Modells hinsichtlich der ereignisbezogenen Konsistenz von Modellen. (Quelle: Bitkom)
Data Science
Datenkunde: die Kenntnis bzw. Anwendung neuer Verfahren zur Arbeit mit Daten und Informationen, z.B. Verwendung semantischer Verfahren oder die Erschließung neuer Datenquellen (Sensordaten) und die Erarbeitung von Mustern oder statistischen Verfahren zur Auswertung solcher Daten. (Quelle: Bitkom)
Data Mining
Anwendung statistischer Methoden auf sehr große Datenmengen, bspw. Im Gegensatz zur manuellen Auswertung über Funktionen eines Tabellenkalkulationsprogrammes (Quelle: Bitkom)
Data Management
Methoden und Verfahren zur Verwaltung von Daten, oft über Metadaten (Daten, die Daten beschreiben) (Quelle: Bitkom)
Customer Analytics
Gewinnung von Erkenntnissen über das Kundenverhalten (überwiegend in Consumer-orientierten Unternehmen), beispielsweise mit dem Ziel der Entwicklung massenindividualisierter Produkte und Dienstleistungen (Quelle: Bitkom)
CEP
Sammelbegriff für Methoden, Techniken und Werkzeuge, um Ereignisse zu verarbeiten, während sie passieren. CEP leitet aus Ereignissen höheres Wissen in Form von komplexen Ereignissen ab, d. h. Situationen, die sich nur als Kombination mehrerer Ereignisse erkennen lassen (vgl. Wikipedia). (Quelle: Bitkom)
Complex Event Processing (CEP)
Complex Event Processing (CEP, Verarbeitung komplexer Ereignisse) ist ein Themenbereich der Informatik, der sich mit der Erkennung, Analyse, Gruppierung und Verarbeitung voneinander abhängiger Ereignisse beschäftigt. (Quelle: Bitkom)
CEPH
ein Dateisystem, das gleichzeitig Objekte, Dateien und Datenblöcke verwalten kann (Quelle: Bitkom)
CAP-Theorem
Laut dem CAP-Theorem kann ein verteiltes System zwei der folgenden Eigenschaften erfüllen, jedoch nicht alle drei: C = Consistency = Konsistenz, A = Availability = Verfügbarkeit, P = Partition Tolerance = Partitionstoleranz (siehe Wikipedia)
Business Intelligence
Gewinnung von Erkenntnissen über Zusammenhänge zwischen Informationen aus polystrukturierten Daten aus unterschiedlichsten Quellen (Quelle: Bitkom)
Broker
Makler/Buchmacher, hier: Rolle des Übermittlers von Daten zwischen Quelle und Anwender Business Analytics Ermittlung von Kennzahlen für Unternehmen, durch die Analyse größerer Datenmengen mit dem Ergebnis neuer Erkenntnisse aufgrund einer breiteren Datenbasis. (Quelle: Bitkom)
Big Data
die Gewinnung neuer Informationen – die in kürzester Zeit sehr vielen Nutzern zur Verfügung stehen müssen – mittels enorm großer Datenbestände aus unterschiedlichsten Quellen, um dadurch schneller wettbewerbskritische Entscheidungen treffen zu können. (Quelle: Bitkom)
Analytics Appliance
vorkonfigurierte oder paketierte Lösungen aus Hardware und Software für die Koordinierung von polystrukturierten Daten, die Ausführung von Analysen und die Präsentation der Erkenntnisse. (Quelle: Bitkom)
Analytics Analyse
Gewinnung von Erkenntnissen durch komplexe Abfragen auf polsystrukturierte Daten, Datenbanken und Data-Warehouses mit spezifischen Abfragesprachen wie SQL oder Pig. (Quelle: Bitkom)

Wie sind Sie in dieses Geschäft eingestiegen und was war ausschlaggebend für diesen Einstieg?

Küsgen: Dadurch, dass die FIT seit mehr als 30 Jahren SAP Partner ist, sind wir im ständigen Austausch mit den Software-Experten in Walldorf und aufgeschlossen für neue Lösungen, die unsere Kunden bei der Optimierung ihrer Prozesse unterstützen. Dieser Kooperation verdanken wir die Zertifizierung "SAP Certified in SAP HANA Operations Services", die wir als einer der ersten Partner weltweit erhalten haben.

Welche Voraussetzungen müssen Systemhäuser IT-Consultants, Reseller und Integratoren mitbringen, um diese Chancen zu nutzen und ihren Kunden bei der Bewältigung dieser Herausforderungen zu helfen?

Küsgen: Um die mittelständische Fertigungsindustrie auf dem Weg zu eigenen Big Data-Lösungen kompetent und auf Augenhöhe beraten zu können, ist zum einen ein tiefgehendes Verständnis der Produktions- und Geschäftsprozesse und zum anderen umfassendes SAP-Know-how gefordert. Dadurch sind wir in der Lage, unseren Kunden Gesamtlösungen aus einer Hand anzubieten: Wir stellen eine auf SAP HANA basierende Infrastruktur zur Verfügung und nehmen gleichzeitig die Rolle des Hosting Providers von Lösungen und Services rund um die SAP HANA-Plattform ein. Im Rahmen unserer Services führen wir im ersten Schritt eine Analyse durch und ermitteln, ob der Einsatz von SAP HANA sinnvoll ist. Unsere Kunden haben die Möglichkeit, SAP HANA-basierte Applikationen zu testen, bevor sie sie einführen.

Mit welchen Herstellern arbeiten Sie in diesem Umfeld zusammen?

Küsgen: Wir haben mit der SAP als Hersteller einen verlässlichen Partner, mit dem wir erfolgreich zusammen arbeiten.

Sieben Geschäftsmodelle für Big Data -
Sieben Geschäftsmodelle für Big Data
Die von BCG identifizierten sieben Haupterfolgsmodelle beinhalten eine Mischung aus B2C- und B2B-Angeboten.
1. Build to Order:
Produkte und Services werden für Kunden maßgeschneidert - zum Beispiel, indem aus Location-Daten verschiedener GPS-Geräte eine individualisierte Verkehrsanalyse für ein städtische Planungsabteilung entwickelt wird. Vorteile dieses Modells seien der besondere Wert der Leistungen und die gesteigerte Kundenzufriedenheit. Dafür müssen die Kunden aber längere Wartezeiten in Kauf nehmen; überdies lassen sich die speziellen Produkte und Leistungen nur schwer weiterverkaufen.
2. Service Bundle:
Verschiedene Angebote werden miteinander verschmolzen. Energiehändler können beispielsweise die Gas- und Stromversorgung und die Energiesparberatung zu einem Service-Paket schnüren. Das kann laut BCG sehr profitabel sein, Konkurrenz aus dem Markt treiben und Cross-Selling-Möglichkeiten eröffnen. Hinterher ist es aber schwierig, die Verkaufspakete wieder aufzulösen. Und den Kunden muss nicht schmecken, dass sie den Wert der einzelnen Komponenten nicht mehr mühelos in Erfahrung bringen können.
3. Plug and Play:
Hier gibt es das immer gleiche Produkt für alle Kunden. Banken können beispielsweise Berichte über das Ausgabenverhalten ihrer Kunden verkaufen, die auf Basis gesammelter und anonymisierter Daten erstellt werden. Derartige Angebote lassen sich leicht zusammenstellen. Die Gefahr: Die Kunden könnte Personalisierung vermissen - und eventuell zur Konkurrenz flüchten.
4. Pay per Use:
Bezahlt wird nur, was auch gebraucht wird. BCG nennt als Beispiel ortsabhängige Skisportversicherungen. So lassen sich gute Margen realisieren; allerdings fehlen stabile Umsatzquellen - und die Akquisitionskosten können ausufern.
5. Commission:
Dauerhaftere Beziehungen lassen sich auf andere Weise etablieren. Zum Beispiel, indem Banken Kreditkartentransaktionen analysieren und Lokalen und Geschäften gegen Gebühr Rabatte gewähren. Diese basieren dann auf den generierten Umsätzen. Das Problem laut BCG ist hier die mangelnde Berechenbarkeit der Geldflüsse.
6. Value Exchange:
In diesem Modell bietet ein Dritter, der zwischen Unternehmen und Kunde steht, Rabatte oder zusätzliche Services an. So lassen sich die vom Marketing gewünschten Gruppen gezielt ins Visier nehmen. Langfristig kann es auch BCG-Sicht aber unerwünscht sein, bei diesen Geschäften einen weiteren Partner im Boot zu haben.
7. Subscription:
Abonnementlösungen sind laut BCG zum Beispiel im Healthcare-Segment möglich. So kann Patienten ein anonymisierter Informationsdienst angeboten werden, über den medizinische Befunde ausgewertet werden. Diese Geschäfte sind einerseits von stabilen und damit berechenbaren Umsätzen gekennzeichnet, dafür sind andererseits die Margen entsprechend niedrig.

Inwiefern setzen Sie dabei auch auf Kooperationen mit anderen Partnern?

Küsgen: Vor dem Hintergrund die beste Lösung für unsere Kunden zu finden, setzen wir uns natürlich auch mit dem Portfolio der zur Zeit am Markt größten Datenbankhersteller auseinander. IBM Blu ist bereits auf dem Markt und Oracle hat auch eine In-Memory Datenbank angekündigt.