Kosten- und Effizienzvorteile für Logistiker
Zugleich kann Predictive Analytics die Effizienz von Transporten verbessern und so Kosten senken. Besonders im B2B-Bereich spielt dies eine große Rolle: Von den 2,7 Millionen LKW, die laut Daten des Kraftfahrtbundesamtes 400 Millionen Fahrten auf deutschen Straßen im letzten Jahr absolvierten, handelte es sich bei rund einem Drittel um Leerfahrten. Bewegungsdaten von Fahrzeugen, die zunehmend in Echtzeit erhoben werden, können als Basis für Prognosen herangezogen werden, um Touren effizienter zu planen und Leerfahrten zu vermeiden.
Echtzeit-Daten über Straßen und Wetterbedingungen können aber auch herangezogen werden, um Staus zu umfahren und geeignete Fahrzeuge und Fahrzeugausrüstung auswählen. Warum sollte man mit einem großen LKW unterwegs sein, wenn ein kleiner Transporter den Bedarf deckt? In diese Prognosen können ebenso historische Daten über das Sendungsverhalten der Absender einfließen, um zu ermitteln wann und wo Bedarf an Transportkapazität entsteht. So steigen die Lieferungen von Schokoladenfabriken vor Ostern und Weihnachten.
Ebenso sehen Logistiker vermehrte Transporte von Elektronikhändlern, wenn ein neues iPhone auf dem Markt kommt. Es wäre auch denkbar, Werbeankündigungen eines Herstellers für ein neues Produkte auf Webseiten oder den Streams in sozialen Netzwerken für Kapazitätsplanungen mit einzubeziehen.
Predictive Analytics braucht Datenqualität
Die genannten Beispiele zeigen, dass in Logistik-Unternehmen vorhandene historische Daten dazu genutzt werden können, alltägliche Entscheidungen in Zukunft zu verbessern. Dabei gilt allerdings: Prognosen sind immer nur so gut wie die zugrundeliegenden Daten. Entsprechend wichtig ist eine qualitätsgesicherte, solide Datenbasis.
Um dies auch wissenschaftlich zu untermauern, wurde speziell für Predictive Analytics in Kooperation mit der Hochschule der Medien (HdM) Stuttgart ein Prototyp entwickelt. Mit diesem sollte der Zusammenhang zwischen Datenqualität und der Güte von Prognosen veranschaulicht werden. Im Rahmen einer Bachelor-Arbeit wurde dieser Zusammenhang nun auch erstmals empirisch untersucht.
Der Autor der Arbeit, Paul Titze, Student am Fachbereich Information und Kommunikation des Studiengangs Wirtschaftsinformatik und digitale Medien an der HdM, überprüfte mit Hilfe verschiedener Testszenarien, in denen Datenanalysen mit Hilfe von Stammdaten von verschiedener Qualität durchgeführt wurden, den Zusammenhang zwischen qualitativ hochwertigen Stammdaten und den Ergebnissen der Analyse via Supervised Machine Learning.
Ergebnis: Vor allem beim Supervised Learning, bei dem die Stammdaten die Grundlage für das Lernen des Algorithmus bilden, konnten mit einer durch Stammdatenmanagement qualitativ hochwertig aufbereiteten Datengrundlage deutlich bessere Vorhersagen erzielt werden als beim Machine Learning mit einem unbehandelten Datenset.
Die Ergänzung der zentralen Stammdatensätze über Kunden um Interaktions- und Transaktionsdaten (Bewegungsdaten) führt zu genaueren Kundenprofilen, die eine vollständige und aktuelle Sicht auf Kunden ermöglichen. Damit vermeiden Unternehmen falsche Prognosen und darauf aufbauend fehlerhafte (Geschäfts-)Entscheidungen.