In zehn Jahren könnte das vollautomatische Autofahren Wirklichkeit werden. Möglich macht dies die Verknüpfung einer Vielzahl von Daten. Die Möglichkeiten zur Datenanalyse werden immer raffinierter. Das birgt Risiken, eröffnet aber auch neue Chancen.
von Peter Zschunke, dpa
Soziale Netzwerke, Internet-Suche, Verkehrsinfos in Echtzeit: In der Informationsgesellschaft fallen immer mehr Daten an. Die Analyse dieser "Big Data" birgt Risiken für den Schutz der Privatsphäre, kann nach Auffassung von Forschern aber auch das Alltagsleben einfacher machen. Eine Konferenz in Hildesheim befasste sich jetzt mit Datenströmen von ständig neu erfassten Messwerten.
"Hier sind am Horizont Möglichkeiten für intelligente Anwendungen zu erkennen, deren Potenzial kaum absehbar ist", sagte der Informatiker Lars Schmidt-Thieme zum Abschluss der Konferenz "Data Analysis, Machine Learning and Knowledge Discovery" (Datenanalyse, maschinelles Lernen und Erschließung von Wissen) in Hildesheim. So könnte etwa die Echtzeit-Auswertung von Sensordaten im Auto die Unfallrisiken im Verkehr deutlich verringern. Bereits in zehn Jahren könnte das vollautomatische Autofahren denkbar sein.
"Jede Lenkbewegung und Pedalbewegung, jeder Schaltvorgang und die präzise Erfassung des Benzinverbrauchs - das sind alles interessante Dinge, die man miteinander verknüpfen kann und mit deren Hilfe man das Fahrverhalten optimieren kann", erklärte der Professor, der als Experte für Wirtschaftsinformatik und maschinelles Lernen die dreitägige Konferenz der Deutschen Gesellschaft für Klassifikation (GfKl) geleitet hat. Allein bei Anwendungen im Verkehrswesen könne man heute noch kaum überblicken, was durch eine automatische Steuerung von Fahrzeugen einmal möglich sein werde.
Als weiteres Beispiel für die praktische Nutzung der Analyse von Datenströmen nannte Schmidt-Thieme die Möglichkeit einer personalisierten Therapie in der Medizin. So lasse sich eine Medikation mit Hilfe von kontinuierlich erfassten Sensordaten ungleich präziser steuern als bisher. Die Analyse von Datenströmen ermögliche eine erhebliche Effizienzsteigerung und senke damit auch die Kosten.
Die Auswertung von Datenströmen war einer der Schwerpunkte der Konferenz, an der 180 Informatiker, Statistiker, Betriebswirte, Bioinformatiker und andere Wissenschaftler aus 23 verschiedenen Ländern teilnahmen. Das Thema "Big Data", also der intelligente Umgang mit großen Datenmengen, werde oft nur im Zusammenhang mit kritischen Fragen wie der Gefährdung der Privatsphäre gesehen, sagte Schmidt-Thieme im Gespräch mit der Nachrichtenagentur dpa. Jede Technologie könne aber zum Guten wie zum Schlechten eingesetzt werden.
So war Anfang Juni 2012 die Empörung groß, als ein Forschungsprojekt des Hasso-Plattner-Instituts mit der Wirtschaftsauskunftei Schufa bekannt wurde, bei dem es um die Nutzung von Facebook-Daten für die Bewertung der Bonität von Kreditkunden ging. Die Pläne wurden schnell gestoppt. "Das Forschungsprojekt hat eine Debatte über den Umgang mit frei verfügbaren Daten angestoßen, die die Schufa erst mit Vorlage der Forschungsergebnisse erwartet hätte", erklärte das Unternehmen damals.
Die gesellschaftliche Debatte darüber, wie wir mit den Datenmengen umgehen, sei sehr wichtig, betonte Schmidt-Thieme. "Wir müssen jedes System auch dahingehend prüfen, inwieweit es missbraucht werden kann." Gegenmodell ist das "Privacy-Preserving Data Mining": Hier kommt es darauf an, die Analyse so anzulegen, dass keine Rückschlüsse auf personenbezogene Daten möglich sind.
Nicht die Schwächung, sondern die Stärkung von Grundrechten und Demokratie erhoffen sich die Aktivisten der Open-Data-Bewegung, welche die Bereitstellung von Datenbeständen aus der öffentlichen Verwaltung anstrebt. "Wenn man Daten in verschiedenen Kontexten miteinander verknüpft, erkennt man Zusammenhänge, die man vorher nicht hatte", erklärt Christian Horchert vom Open Data Network. "So kann man auch die Wirkungszusammenhänge von politischen Entscheidungen besser nachvollziehen." (dpa/rw)