Mit einem durchschnittlichen jährlichen Wachstum von knapp zehn Prozent (2012 bis 2017) sind Identity and Access Management (IAM)-Lösungen das am stärksten wachsende Marktsegment im deutschen Markt für IT-Security-Software, so die Marktforscher von IDC. Für dieses stetige Wachstum gibt es einen guten Grund: Der Bedarf nimmt deutlich zu.
Die Zahl digitaler Identitäten und die Menge und Komplexität der zu verwaltenden Berechtigungen für die Identitäten steigen enorm an. Gartner rechnet mit rund 26 Milliarden vernetzten Geräten bis 2020, jedes mit einer eigenen digitalen Identität, wobei diese Schätzung für das Internet of Things (IoT) mobile Endgeräte wie Smartphones oder Tablets noch nicht enthält.
Schon heute halten 62 Prozent der befragten Unternehmen ihr Identity and Access Management für komplex und schwierig zu administrieren, so die Ponemon-Studie "Managing Complexity in Identity & Access Management". Dieser Prozentsatz könnte in Zukunft noch höher ausfallen.
Die Vielzahl an Endgeräten, Cloud-Diensten, Online-Netzwerken, industriellen Sensoren und vernetzten Maschinen treibt die Menge an digitalen Identitäten und Privilegien derart in die Höhe, dass die klassischen Nutzeridentitäten beinahe zu einer Randgruppe werden. Die Marktforscher von Gartner sehen deutlichen Anpassungsbedarf bei IAM und anderen sicherheitsrelevanten Lösungen.
- Predictive Analytics
das Treffen von Prognosen durch die Analyse von Daten. Im Gegensatz zur Analyse historischer Zusammenhängen und Erkenntnissen; auch durch die Analyse von Daten, die möglicherweise urächlich nicht miteinander in Zusammenhang stehen (Quelle: Bitkom) - Open Source
quelloffene Werke, zum Beispiel Software bei der man den Quellcode erhält (Quelle: Bitkom) - Open Data
Konzept zum Zugang zu hoheitlichen Daten zu jedermann, beispielsweise Auskunft über die bei einer Meldestelle gespeicherten Daten über einen Bürger und die Einrichtungen, an die die Daten übermittelt worden sind. (Quelle: Bitkom) - Metadaten
Daten zur Beschreibung von Daten, unter anderem, um Datenmodelle zu entwickeln. (Quelle: Bitkom) - Mahout
wörtlich: Elefantentreiber; hier: eine Apache-Komponente zum Aufbau von Bibliotheken für das Machine Learning MapReduce Verfahren zur Datenverwaltung und Indizierung (Quelle: Bitkom) - Machine Learning
Oberbegriff für die künstliche Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann nach Beendigung der Lernphase verallgemeinern. Das System „erkennt“ Gesetzmäßigkeiten und kann somit auch unbekannte Daten beurteilen. (siehe Wikipedia). (Quelle: Bitkom) - Lustre
Linux-basierendes Betriebssystem für den Betrieb von Cluster-Architekturen (Quelle: Bitkom) - Lambda-Architektur
Eine konstruktiv nutzbare Vorlage für den Entwurf einer Big-Data-Anwendung. Die in der Architektur vorgesehene Modularisierung spiegelt typische Anforderungen an Big-Data-Anwendungen wider und systematisiert sie. (Quelle: Bitkom) - In-Memory
Bei In-Memory werden die Daten nicht physisch auf Datenträger gespeichert und wieder ausgelesen, sondern im Arbeitsspeicher gehalten und dadurch mit sehr hoher Geschwindigkeit verarbeitet. (Quelle: Bitkom) - HANA
Ursprünglich: High-Performance Analytical Appliance; ein von SAP entwickeltes Produkt zum Betrieb von Datenbanken im (sehr großen) Hauptspeicher eines Computersystems (Quelle: Bitkom) - Hadoop
Open-Source-Version des MapReduce-Verfahrens, in verschiedenen Distributionen erhältlich. (Quelle: Bitkom) - Fraud Detection
Erkennung von Betrugsversuchen durch die Analyse von Transaktionen und Verhaltensmustern (Quelle: Bitkom) - Eventual Consistency
Eine Schnittmenge des CAP-Modells hinsichtlich der ereignisbezogenen Konsistenz von Modellen. (Quelle: Bitkom) - Data Science
Datenkunde: die Kenntnis bzw. Anwendung neuer Verfahren zur Arbeit mit Daten und Informationen, z.B. Verwendung semantischer Verfahren oder die Erschließung neuer Datenquellen (Sensordaten) und die Erarbeitung von Mustern oder statistischen Verfahren zur Auswertung solcher Daten. (Quelle: Bitkom) - Data Mining
Anwendung statistischer Methoden auf sehr große Datenmengen, bspw. Im Gegensatz zur manuellen Auswertung über Funktionen eines Tabellenkalkulationsprogrammes (Quelle: Bitkom) - Data Management
Methoden und Verfahren zur Verwaltung von Daten, oft über Metadaten (Daten, die Daten beschreiben) (Quelle: Bitkom) - Customer Analytics
Gewinnung von Erkenntnissen über das Kundenverhalten (überwiegend in Consumer-orientierten Unternehmen), beispielsweise mit dem Ziel der Entwicklung massenindividualisierter Produkte und Dienstleistungen (Quelle: Bitkom) - CEP
Sammelbegriff für Methoden, Techniken und Werkzeuge, um Ereignisse zu verarbeiten, während sie passieren. CEP leitet aus Ereignissen höheres Wissen in Form von komplexen Ereignissen ab, d. h. Situationen, die sich nur als Kombination mehrerer Ereignisse erkennen lassen (vgl. Wikipedia). (Quelle: Bitkom) - Complex Event Processing (CEP)
Complex Event Processing (CEP, Verarbeitung komplexer Ereignisse) ist ein Themenbereich der Informatik, der sich mit der Erkennung, Analyse, Gruppierung und Verarbeitung voneinander abhängiger Ereignisse beschäftigt. (Quelle: Bitkom) - CEPH
ein Dateisystem, das gleichzeitig Objekte, Dateien und Datenblöcke verwalten kann (Quelle: Bitkom) - CAP-Theorem
Laut dem CAP-Theorem kann ein verteiltes System zwei der folgenden Eigenschaften erfüllen, jedoch nicht alle drei: C = Consistency = Konsistenz, A = Availability = Verfügbarkeit, P = Partition Tolerance = Partitionstoleranz (siehe Wikipedia) - Business Intelligence
Gewinnung von Erkenntnissen über Zusammenhänge zwischen Informationen aus polystrukturierten Daten aus unterschiedlichsten Quellen (Quelle: Bitkom) - Broker
Makler/Buchmacher, hier: Rolle des Übermittlers von Daten zwischen Quelle und Anwender Business Analytics Ermittlung von Kennzahlen für Unternehmen, durch die Analyse größerer Datenmengen mit dem Ergebnis neuer Erkenntnisse aufgrund einer breiteren Datenbasis. (Quelle: Bitkom) - Big Data
die Gewinnung neuer Informationen – die in kürzester Zeit sehr vielen Nutzern zur Verfügung stehen müssen – mittels enorm großer Datenbestände aus unterschiedlichsten Quellen, um dadurch schneller wettbewerbskritische Entscheidungen treffen zu können. (Quelle: Bitkom) - Analytics Appliance
vorkonfigurierte oder paketierte Lösungen aus Hardware und Software für die Koordinierung von polystrukturierten Daten, die Ausführung von Analysen und die Präsentation der Erkenntnisse. (Quelle: Bitkom) - Analytics Analyse
Gewinnung von Erkenntnissen durch komplexe Abfragen auf polsystrukturierte Daten, Datenbanken und Data-Warehouses mit spezifischen Abfragesprachen wie SQL oder Pig. (Quelle: Bitkom)
Wenn Unternehmen mit zunehmend großen Datenmengen umgehen müssen, kommen Big-Data-Lösungen ins Spiel. Das ist auch für IAM-Lösungen der Fall, die sich "Datenbergen" aus Identitätsinformationen, Identitätsverknüpfungen, Identitätsberechtigungen sowie individuellen Zugangsregelungen und Zugangskontrollen stellen müssen.
Die Zugangskontrolle muss individueller werden
Die Menge an Identitätsdaten macht einen Big-Data-Ansatz für IAM-Lösungen interessant, aber auch die erforderliche Reaktionsgeschwindigkeit, wenn eine IAM-Lösung entscheiden muss, wie die Zugangskontrolle erfolgen soll und ob der Zugang nun gewährt oder blockiert werden muss.
Die Berechtigungen, die eine digitale Identität haben soll, hängen nicht nur von der jeweiligen Identität ab, sondern auch von der aktuellen Bedrohungslage, dem aktuellen Risiko, das mit der Ausübung der Berechtigungen verbunden ist, und von dem Zusammenspiel der einzelnen Identitäten wie Nutzer und Geräte.
So macht es zum Beispiel einen Unterschied, ob vertrauliche Daten auf einem bestimmten mobilen Endgerät in der Hotel-Lobby über WLAN abgerufen werden sollen, oder ob dies auf dem Arbeitsplatz-PC im deutlich besser geschützten Firmennetzwerk erfolgt.
Ein Identity and Access Management muss die Berechtigungen dynamisch an Identitäten vergeben und die Stärke der Zugangskontrolle möglichst in Echtzeit anpassen. Je nach Bedrohungslage sollte eine IAM-Lösung eine Mehr-Faktor-Authentifizierung verlangen. Die einfache Zugangskontrolle über Passworteingabe wird nur dann gewählt, wenn die Risikowerte gering sind.
Diese sogenannte kontextsensitive Sicherheit, die die zu ergreifenden Schutzmaßnahmen von aktuellen Risikoparametern abhängig macht, erfordert bei der steigenden Zahl an Identitäten und Parametern leistungsstarke, schnelle Analysemethoden. Hier bieten sich die Lösungen aus dem Bereich Big Data Security Analytics an.
Gefälschte Identitäten müssen schneller enttarnt werden
Big Data Security Analytics wird heute bereits zur Prüfung digitaler Identitäten eingesetzt und wird wie die kontextsensitive Sicherheit in Zukunft noch an Bedeutung gewinnen, wie Gartner bei den "Top 10 Technologies for Information Security in 2014" betont.
Ein wichtiger Anwendungsfall von Big Data Security Analytics bei der Identitätsprüfung ist die Suche nach Kennzeichen für Betrugsversuche und gefälschte Identitäten, wie dies zum Beispiel Ataway, FICO, Hortonworks, IBM und VISA erläutern. Dabei wird das aktuelle "Verhalten" einer Identität mit den bisher üblichen oder erlaubten Verhaltensmustern verglichen, auffällige Abweichungen sprechen für gefälschte oder gestohlene Identitäten.
Zahlreiche Studien gehen davon aus, dass Identitätsdiebstahl und Betrugsversuche im Internet weiter deutlich steigen werden. Der Bedarf für Identitätskontrollen in nahezu Echtzeit wird entsprechend wachsen. Gartner erwartet für 2016, dass 25 Prozent der großen, global operierenden Unternehmen Big Data Analytics für mindestens ein Sicherheitsverfahren bzw. zur Betrugserkennung einsetzen werden. Bisher sind es erst acht Prozent.
Der Zugang zu Big Data muss besser abgesichert werden
Die Verknüpfung zwischen Identität and Access Management und Big Data Security Analytics ist keine Einbahnstraße. Big-Data-Analysen sind eine zunehmend wichtige Ergänzung für das Identitätsmanagement, aber auch umgekehrt werden Vorteile sichtbar.
Big-Data-Anwendungen werden insbesondere deshalb von Datenschützern kritisch gesehen, da die umfangreiche Menge an Daten missbräuchlich ausgewertet werden könnte und so den gläsernen Nutzer Realität werden lassen könnte.
Um Big Data datenschutzgerecht nutzen zu können, gilt es, missbräuchliche Zugriffe zu verhindern. Die vielfältigen Datenkategorien und Analysemöglichkeiten machen ein feingliedriges Berechtigungsmanagement erforderlich, so dass genau unterschieden werden kann, wer wann welche Big-Data-Analyse machen darf oder nicht.
An dieser Stelle können leistungsstarke IAM-Lösungen die Sicherheit von Big-Data-Analysen erhöhen. Es zeigt sich, dass IAM und Big Data eine sinnvolle Partnerschaft eingehen können und sollten. Tatsächlich sind bereits entsprechende Lösungen auf dem Markt.