Als der Schuss sie traf, hatte sie keine Chance. Auf der Autobahn A3 bei Würzburg durchschlug ein Geschoss ihre Autoscheibe und traf sie am Hals. Millimeter entschieden über Leben und Tod. Ein Unbekannter hatte willkürlich auf vorbeifahrende Fahrzeuge, vorzugsweise Autotransporter, geschossen. Im Juni 2013 wurde ein 57 Jahre alter Lastwagenfahrer aus Nordrhein-Westfalen nach einer fünf Jahre dauernden Suche endlich gefasst. Gefunden wurde er dank der Sammlung, automatisierten Auswertung und Analyse von gewaltigen Datenbergen.
Prompt kritisierten Datenschützer das Vorgehen der Polizei. Es habe für die benutzte Ermittlungsmethode "keine hinreichende gesetzliche Ermächtigungsgrundlage" gegeben, kritisierte der rheinland-pfälzische Datenschutzbeauftragte Edgar Wagner. Jörg Ziercke, Präsident des Bundeskriminalamts (BKA), hingegen freute sich unverhohlen über die Festnahme: "Wir haben die berühmte Nadel im Heuhaufen gefunden."
Überwachung
Der Fall des "Autobahnschützen" ist nicht ohne Pikanterie. Das BKA nutzte nicht etwa die ohnehin vorhandenen Aufzeichnungen des LKW-Maut-Systems von Toll Collect. Stattdessen baute es sich ein eigenes System, um im ganz großen Stil Daten zu sammeln. Die Fahnder hatten an sieben relevanten Autobahnabschnitten Kameras installiert. Diese lasen die Kennzeichen sämtlicher vorbeifahrenden Automobile ein, auch die der beschossenen Kraftfahrzeuge. Im April 2013 wurden der Polizei dann innerhalb von fünf Tagen wieder Schüsse auf Lastwagen gemeldet, insgesamt sechs.
Mit den massenhaft gesammelten Autokennzeichen konnte das BKA wahrscheinliche Fahrtstrecken des Täters und mögliche Tatorte herausfiltern. Auch der Zeitraum, innerhalb dessen der Kriminelle an Kameras vorbeigefahren sein musste, ließ sich stark eingrenzen. Schließlich konnten die Ermittlungsbeamten berechnen, welche Fahrer es waren, die innerhalb einer gewissen Zeitspanne nicht nur an einer bestimmten, sondern auch an anderen Kameras vorbeifuhren.
Dilemma
Sie fanden genau einen einzigen LKW, der dafür in Frage kam. Da die BKA-Beamten zudem Fotos von den Überwachungskameras für ihre Ermittlungen heranziehen konnten, hatten sie bald einen Verdächtigen ausgemacht. Ein Abgleich von dessen Handy-Funkzelleninformationen offenbarte, dass sämtliche registrierten Daten nur auf diesen einen mutmaßlichen Täter zutrafen. Der Mann gestand nach seiner Verhaftung die Taten, die er "aus Ärger und Frust im Straßenverkehr" begangen haben will.
Der Fall beschreibt in treffender Weise das Dilemma von Big Data: Die Auswertung massenhafter Daten hat einen ambivalenten Charakter. Sie hat den Hautgout des Überwachungsstaats, der ausschnüffelnden Unternehmen und Behörden. Nicht umsonst warnte der Bundesdatenschutzbeauftragte Peter Schaar vor einigen Wochen gegenüber dpa vor "unsichtbaren Datensammlern in Smartphones, Kraftfahrzeugen und anderen Geräten, die laufend Daten generieren".
- Trendthema Big Data
Von der Auswertung der riesigen Datenmengen, die täglich von IT-Systemen erfasst werden, versprechen sich Unternehmen, aber auch öffentliche Einrichtungen große Vorteile. - Vorteile von Big Data
Laut der Untersuchung von Barc erwarten sich Unternehmen von Big Data vor allem Vorteile auf strategischer Ebene. Doch das setzt voraus, dass Fachleute aus unterschiedlichen Bereichen Hand in Hand arbeiten: Business Manager, IT-Fachleute und Experten für das Sammeln und Auswerten von großen Datenbeständen. - Benno Zollner, Chief Information Officer von Fujitsu Technology Solutions
" Big Data Lösungen kombinieren Informationen aus unterschiedlichen Quellen und einer Vielzahl von Technologien. Deshalb müssen Big-Data-Fachleute interdisziplinäre Erfahrungen mitbringen." - Big Data: Wer analysiert?
Die Analyse der Daten, die im Rahmen von Big-Data-Projekten erfasst werden, erfolgt laut einer Studie von TCS vornehmlich durch die Fachabteilungen, die diese Informationen verwenden. Die IT-Abteilung spielt eine untergeordnete Rolle. - Kay Müller-Jones, Head of Global Consulting Practice bei Tata Consultancy Services:
"Neben technischen Fertigkeiten und fachlichem Wissen sollten Big-Data-Fachleute über ein hohes Maß an Fingerspitzengefühl im Umgang mit Kollegen verfügen. Denn gerade Big Data erfordert ein fachbereichsübergreifendes Denken, das Informationen aus vormals klar abgegrenzten Bereichen zusammenführt." - Big Data, die Probleme
Laut einer Studie des Marktforschungsinstituts Barc zählt fehlendes Fachwissen zu den größten Hemmnissen, mit denen sich europäische Unternehmen bei Big-Data-Projekten konfrontiert sehen. - Big Data: Wer ist zuständig?
Die Verarbeitung, das "Processing", von Big Data ist Aufgabe von IT-Fachleuten. Das können hauseigene Mitarbeiter sein, aber auch externe Spezialisten. - Analytische Infrastruktur für Big Data
Berechtigte Sorgen
Daniel Suarez, ehemaliger Softwareentwickler und Berater für US-Unternehmen, der hierzulande bekannt wurde durch Romane wie "Daemon", "Darknet" und zuletzt "Kill Decision", anwortete auf eine Frage der "Süddeutschen Zeitung" zum Thema Prism: "Ich sage das jetzt nicht als Thriller-Autor, sondern weil ich 19 Jahre lang Big-Data-Systeme konzipiert habe: Die Leute sollten sich verdammte Sorgen machen." Big Data, das zeigen Prism und Tempora, bedient all diejenigen mit Argumenten, die immer davor gewarnt haben, dass die Analyse von Massendaten Teufelszeug sei und Bürgerrechte verletze.
Problemlöser
Mit Big Data eröffnet sich aber auch die Perspektive, durch die rasante Auswertung von Datenmassen Antworten auf viele Menschheitsprobleme zu finden.
Sinnvolle Anwendungsbeispiele finden sich zuhauf. Egal ob im Gesundheitswesen, in der Verbrechensbekämpfung, in der Kalkulation von Versicherungspolicen, bei der Erforschung des Kaufverhaltens, bei der Kundenberatung etc. Egal auch, in welchen Branchen: Ob in der Automobilindustrie, der Medizin, bei der Feuerwehr, bei der Erforschung alternativer Energien oder von Wettermodellen - immer kann Big Data dazu beitragen, Unmengen von Daten sinnvoll zu ordnen, zu analysieren und Handlungsvorschläge anzubieten.