Als der Schuss sie traf, hatte sie keine Chance. Auf der Autobahn A3 bei Würzburg durchschlug ein Geschoss ihre Autoscheibe und traf sie am Hals. Millimeter entschieden über Leben und Tod. Ein Unbekannter hatte willkürlich auf vorbeifahrende Fahrzeuge, vorzugsweise Autotransporter, geschossen. Im Juni 2013 wurde ein 57 Jahre alter Lastwagenfahrer aus Nordrhein-Westfalen nach einer fünf Jahre dauernden Suche endlich gefasst. Gefunden wurde er dank der Sammlung, automatisierten Auswertung und Analyse von gewaltigen Datenbergen.
Prompt kritisierten Datenschützer das Vorgehen der Polizei. Es habe für die benutzte Ermittlungsmethode "keine hinreichende gesetzliche Ermächtigungsgrundlage" gegeben, kritisierte der rheinland-pfälzische Datenschutzbeauftragte Edgar Wagner. Jörg Ziercke, Präsident des Bundeskriminalamts (BKA), hingegen freute sich unverhohlen über die Festnahme: "Wir haben die berühmte Nadel im Heuhaufen gefunden."
Überwachung
Der Fall des "Autobahnschützen" ist nicht ohne Pikanterie. Das BKA nutzte nicht etwa die ohnehin vorhandenen Aufzeichnungen des LKW-Maut-Systems von Toll Collect. Stattdessen baute es sich ein eigenes System, um im ganz großen Stil Daten zu sammeln. Die Fahnder hatten an sieben relevanten Autobahnabschnitten Kameras installiert. Diese lasen die Kennzeichen sämtlicher vorbeifahrenden Automobile ein, auch die der beschossenen Kraftfahrzeuge. Im April 2013 wurden der Polizei dann innerhalb von fünf Tagen wieder Schüsse auf Lastwagen gemeldet, insgesamt sechs.
Mit den massenhaft gesammelten Autokennzeichen konnte das BKA wahrscheinliche Fahrtstrecken des Täters und mögliche Tatorte herausfiltern. Auch der Zeitraum, innerhalb dessen der Kriminelle an Kameras vorbeigefahren sein musste, ließ sich stark eingrenzen. Schließlich konnten die Ermittlungsbeamten berechnen, welche Fahrer es waren, die innerhalb einer gewissen Zeitspanne nicht nur an einer bestimmten, sondern auch an anderen Kameras vorbeifuhren.
Dilemma
Sie fanden genau einen einzigen LKW, der dafür in Frage kam. Da die BKA-Beamten zudem Fotos von den Überwachungskameras für ihre Ermittlungen heranziehen konnten, hatten sie bald einen Verdächtigen ausgemacht. Ein Abgleich von dessen Handy-Funkzelleninformationen offenbarte, dass sämtliche registrierten Daten nur auf diesen einen mutmaßlichen Täter zutrafen. Der Mann gestand nach seiner Verhaftung die Taten, die er "aus Ärger und Frust im Straßenverkehr" begangen haben will.
Der Fall beschreibt in treffender Weise das Dilemma von Big Data: Die Auswertung massenhafter Daten hat einen ambivalenten Charakter. Sie hat den Hautgout des Überwachungsstaats, der ausschnüffelnden Unternehmen und Behörden. Nicht umsonst warnte der Bundesdatenschutzbeauftragte Peter Schaar vor einigen Wochen gegenüber dpa vor "unsichtbaren Datensammlern in Smartphones, Kraftfahrzeugen und anderen Geräten, die laufend Daten generieren".
Berechtigte Sorgen
Daniel Suarez, ehemaliger Softwareentwickler und Berater für US-Unternehmen, der hierzulande bekannt wurde durch Romane wie "Daemon", "Darknet" und zuletzt "Kill Decision", anwortete auf eine Frage der "Süddeutschen Zeitung" zum Thema Prism: "Ich sage das jetzt nicht als Thriller-Autor, sondern weil ich 19 Jahre lang Big-Data-Systeme konzipiert habe: Die Leute sollten sich verdammte Sorgen machen." Big Data, das zeigen Prism und Tempora, bedient all diejenigen mit Argumenten, die immer davor gewarnt haben, dass die Analyse von Massendaten Teufelszeug sei und Bürgerrechte verletze.
Problemlöser
Mit Big Data eröffnet sich aber auch die Perspektive, durch die rasante Auswertung von Datenmassen Antworten auf viele Menschheitsprobleme zu finden.
Sinnvolle Anwendungsbeispiele finden sich zuhauf. Egal ob im Gesundheitswesen, in der Verbrechensbekämpfung, in der Kalkulation von Versicherungspolicen, bei der Erforschung des Kaufverhaltens, bei der Kundenberatung etc. Egal auch, in welchen Branchen: Ob in der Automobilindustrie, der Medizin, bei der Feuerwehr, bei der Erforschung alternativer Energien oder von Wettermodellen - immer kann Big Data dazu beitragen, Unmengen von Daten sinnvoll zu ordnen, zu analysieren und Handlungsvorschläge anzubieten.
Überwachung lohnt
Versicherungen nutzen etwa sogenannte Tracking Devices wie "Snapshot", um festzuhalten, wie sich Autofahrer verhalten. In den USA bietet der Versicherer Progressive günstige Tarife an, wenn sich die Kunden bereit erklären, ihre Fahrweise via Telematiksoftware erfassen zu lassen. Wer sich darauf einlässt, dem gewährt die Versicherung bis zu 30 Prozent Prämiennachlass.
Von entscheidender Bedeutung sind Big-Data-Anwendungen für Unternehmen, die das zukünftige Kaufverhalten ihrer Kunden eruieren wollen. Zum Beispiel nutzen Großbäckereien entsprechende Analyselösungen, um das Kaufverhalten von Kunden unter besonderer Berücksichtigung von Wettereinflüssen vorherzusagen. Die in Kiel beheimatete Meteolytix GmbH hat mit der auf IBM-Technik fußenden Lösung "Meteolytix Forecast" ein Absatz-Prognosemodell entwickelt.
Die Norddeutschen nutzen hierzu sowohl Wettervorhersagedaten als auch mathematische Analysen von Umsätzen aus der Vergangenheit und Informationen über weitere Sondereinflüsse. Der Ansatz beruht auf der Erkenntnis, dass Kaufentscheidungen immer auch aufgrund von Emotionen getroffen werden. Das Wetter hat hierauf einen wesentlichen Einfluss.
Die in Karlsruhe und Hamburg niedergelassene Blue Yonder GmbH & Co. KG bedient Kunden wie etwa Baur, Schwab, Heine, Sport Scheck oder die dm-Märkte und Vodafone ebenfalls mit Predictive Analytics, also der Mustererkennung und Prognosenentwicklung. Hohe Wellen schlug der Fall der Handelskette Target. Sie sandte einer jungen Kundin Prospekte zu, die auf ihr Kaufverhalten abgestimmt waren - und informierte so ungewollt ihren Vater über eine bestehende Schwangerschaft.
Gesundheitsprognosen
Besonders im Gesundheitswesen sind Big-Data-Auswertungen schon verbreitet. IBM und das Krebsforschungszentrum Heidelberg beispielsweise kooperieren bei der Analyse von Sequenzierungsdaten von Krebsgenomen. Mit Watson-Technologie durchforstet der amerikanische Versicherer Wellpoint bis zu 200 Millionen Dokumentenseiten binnen Sekunden, um dann Diagnosen und Empfehlungen für die Behandlung zu erstellen. Das kanadische Institute of Technology der University of Ontario nutzt auf seiner Frühchen-Station eine auf IBM Infosphere basierende Software, mit der ein konstanter Strom medizinischer Daten aus einer Vielzahl neuartiger Sensoren, aber auch klassischer Überwachungsgeräte ausgewertet wird. Der Zustand der Babys kann so quasi in Echtzeit analysiert werden.
Das Unternehmen Proteus Digital Health stellt sogenannte Ingestion Event Marker (IEM) her. Das sind winzig kleine integrierte Schaltkreise, die wie Vitamine oral eingenommen werden. Im Magen löst sich die Ummantelung durch die Magensäure auf, und der IEM wird aktiviert. Er sammelt Daten über Herzrhythmus, Atmung, Schlafmuster oder auch eingenommene Medikamente und deren Dosierung. Diese lassen sich mit Informationen zu Gewicht, Größe oder früheren Erkrankungen zusammenführen. Auf diese Weise entsteht ein mehr oder weniger umfassendes Gesundheitsbild eines Menschen. All diese Fakten lassen sich auf einem Smartphone visualisieren.
Wo brennt`s denn?
Ein ganz anderes Einsatzgebiet für Preditive Analytics von Massendaten findet sich bei der Feuerbrigade Amsterdam-Amstelland. Unter Einsatz einer QlikView-Lösung haben die Feuerwehrmänner Risikoprofile von 600.000 Objekten in Amsterdam (Gebäude, Straßen, Schienengleise etc.) und mögliche Konflikttypen (Hausbrand, Verkehrsunfälle, Kohlenstoffmonoxid-Vergiftungen etc.) gesammelt. Diese Daten werden mit bisherigen Ereignissen korreliert. Auf diese Weise berechnet das System Wahrscheinlichkeiten für zwölf Millionen Vorkommnisse, die die Feuerwehr ziemlich genau antizipieren kann.
Der dänische Windanlagenhersteller Vestas ist in der Lage, seinen Kunden, Energieversorgern rund um den Globus, exakt vorherzusagen, welchen Output und Ertrag ein Windpark in den nächs-ten 20 Jahren erbringen wird. Vestas berechnet auch die optimale Platzierung von Windrädern, bevor diese gebaut werden. Er nutzt dazu eine "HyRef"-Lösung der IBM.
Big Data und die Medien
Auch für die Medien werden Informationen zum Verhalten und den Vorlieben ihrer Konsumenten immer wichtiger. Deshalb gehen sie dazu über, den Teilnehmern sozialer Netzwerke genau auf die Finger zu schauen.
RTL Niederlande etwa analysiert Social Networks, um mehr über die Akzeptanz seiner Programme herauszufinden. Hierzu bedient sich der Sender frei verfügbarer, von Nutzern erzeugter Inhalte auf Facebook, Twitter und Youtube sowie in Hunderten von Blogs, Diskussionen, in Foren und auf Websites. Mit diesen unstrukturierten Daten kann RTL Zuschauerstimmungen ermitteln und Sendungen sowie Sendezeiten besser planen.
Für den Eurovision Song Contest 2012 hatte France Television zusammen mit IBM und Novius das Projekt "EuroBuzz" ins Leben gerufen. Ziel war es, mit Hilfe von Analysewerkzeugen und Sprachverarbeitungstechniken Stimmungen auf Twitter und anderen sozialen Netzen live auszuwerten, um daraus Trends während des europaweiten Events abzuleiten. 42 Länder und geschätzte 125 Millionen Zuschauer aus ganz Europa waren dabei. EuroBuzz startete am 11. Mai 2012. France Television analysierte über 1,2 Millionen Tweets, 800.000 innerhalb von vier Stunden während des Events. Die aktuellen Trends zu den Künstlern und Ländern standen den Zuschauern und Fans sofort in einer Grafik zur Verfügung. Trendanalysen sagten schon zwei Tage vor dem Finale den späteren Sieger Schweden vorher.
Beckmesserisch könnte man sich fragen, ob BKA-Chef Ziercke so glücklich lag mit seiner Aussage, man habe mit der Verhaftung des "Autobahnschützen" die Nadel im Heuhaufen gefunden. Keith Alexander, Director des Geheimdienstes NSA, bemühte das gleiche Bild. Er erklärte das ungenierte Sammeln von Massendaten allerdings so: Man brauche einen Heuhaufen, um die Nadel zu finden. Je größer die Datenmenge ist, die Behörden wie die NSA durchwühlen können, desto höher ist die Chance, Kriminelle zu finden. Das ist allerdings nichts anderes als eine Rechtfertigung für die Überwachung aller.
Und die Zukunft?
Von solch einer quasi industrialisierten digitalen Schleppnetzfahndung ist es dann nicht mehr weit zur perfekten Vorhersage von Verbrechen. Was der Film "Minority Report" scheinbar fiktional auf den Punkt brachte, wird in den USA und Großbritannien schon mit erkennbarem Erfolg eingesetzt: Predictive Policing. Das seit 2005 in Memphis angewandte Programm "Blue C.R.U.S.H" (Crime Reduction Utilizing Statistical History) hilft den Strafverfolgungsbehörden auszuloten, wann an welchem Ort gehäuft kriminelle Delikte stattfinden werden. (mhr)