Die Verwerfungen in der jüngeren Vergangenheit, zum Beispiel die Staatsschuldenkrise oder der Tsunami in Japan, haben gezeigt, wie schnell die Existenz eines Unternehmens durch unerwartete Ereignisse bedroht sein kann. Der IT kommt bei der Bewältigung von Risiken eine Doppelrolle zu: Zum einen ist sie selbst "Risikoverursacher". In dieser Rolle muss sie - wie alle anderen Fachbereiche auch - ihre Risiken systematisch identifizieren und steuern.
Zum anderen ist die IT aber auch ein maßgeblicher Teil der Lösung für die Probleme. Denn sie stellt die Datenbasis sowie die Systeme zur Risikosteuerung bereit. Auch die häufig mit der IT verbundene Organisationsabteilung kann einen signifikanten Beitrag zur Steuerung der operationellen Risiken leisten. Das tut sie, indem sie eine strukturierte Dokumentation der wesentlichen Geschäftsprozesse einerseits sowie des Internen Kontrollsystems (IKS) andererseits sicherstellt.
Die Anforderungen an die Steuerung der Risiken ergeben sich zum Teil aus Vorgaben rechtsformspezifischer Art wie dem Gesetz zur Kontrolle und Transparenz im Unternehmensbereich (KonTraG). Zum Teil sind sie auch branchenspezifisch, so beim Kreditwesengesetz (KWG). Nicht zuletzt das Bilanzrechtsmodernisierungsgesetz (Bil-MoG) betont auch die Verpflichtungen des Aufsichtsrats hinsichtlich der Funktionsfähigkeit des internen Kontrollsystems.
Die Kernanforderungen
Alle gesetzlichen Vorgaben umfassen im Kern die folgenden vier zentralen Anforderungen:
-
Die wesentlichen Risiken des Unternehmens sind systematisch zu identifizieren.
-
Die identifizierten Risiken müssen quantifiziert und in verständlicher Form an die Geschäftsleitung berichtet werden.
-
Es sind geeignete Maßnahmen zur Begrenzung und Steuerung der Risiken zu ergreifen.
-
Es muss ein internes Kontrollsystem aufgebaut werden, um Risiken zu vermeiden.
Ein Beispiel sind die Kreditrisiken. Sie entstehen nicht nur in Banken, sondern auch in Industrie-, Handels- und Serviceunternehmen - durch Vorleistungen, die mit Zahlungen am Monatsende beglichen werden (beispielsweise bei Handy-Verträgen).
Von wachsender Bedeutung sind auch die Risiken in der Supply-Chain. Sie rühren daher, dass Unternehmen ihre Produkte auf Grundlage einer Reihe von Vorleistungen Dritter erstellen, ohne große Lagerbestände zu halten. Wird diese sensible Zulieferkette unterbrochen, kommt es zu erheblichen Produktionsausfällen.
Mit der weiter zunehmenden Bedeutung der IT für geschäftskritische Prozesse des Unternehmens sowie mit der fortschreitenden Digitalisierung ganzer Geschäftsmodelle wird auch die Bedeutung der IT bei der Erfüllung der Risiko-Anforderungen deutlich zunehmen. Die Anforderungen an das Management von Risiken übersetzt zunächst jeder Fachbereich im Unternehmen für sich selbst - in Zusammenarbeit mit dem Risiko-Controlling.
Manager der eigenen Risiken
Dabei ist die IT quasi ein Fachbereich wie jeder andere. Ausgehend von der Kritikalität des zu unterstützenden Geschäftsprozesses und der Schutzanforderungen des Fachbereichs muss sie ihre Risiken identifizieren, unter andere im Sinne von Datensicherheit, Notfallbetrieb oder Betrug.
Häufig bestehen schon Organisationseinheiten zu Datensicherheit und Notfall-Management in der IT. Diese sind jedoch selten Teil eines durchgängigen Prozesses zur Steuerung der Risiken. Zudem standen im Fokus des internen Kontrollsystems traditionell eher Prozesse, die sicherstellten, dass die Finanzzahlen des Unternehmens korrekt abgebildet wurden. Zunehmend wird das interne Kontrollsystem aber auf die Vermeidung von Risiken ausgerichtet sein. Und dazu zählen auch die IT-Risiken. Hier besteht noch Handlungsbedarf.
Sisyphos-Arbeit für die IT
So muss es beispielsweise eine klar definierte IT-Strategie geben, die das Management der Risiken erst ermöglicht. Die Anforderungen des prozessverantwortlichen Fachbereichs an die IT sollten klar definiert sein; die IT kann nicht einfach nach eigenen Standards vorgehen. Berechtigungen auf IT-Systeme müssen gezielt vergeben und Konflikte bei der Trennung von Verantwortungsbereichen vermieden werden. Das geht so weit, dass sich das Unternehmen auch bei Dienstleistern davon überzeugen muss, dass die vorgegebenen Grundsätze eingehalten werden.
Die Einhaltung der Anforderungen hängt nicht davon ab, ob es sich um eine zentral durch die IT bereitgestellte Anwendung oder eine auf Seiten der Fachbereiche entwickelte Software handelt. Entscheidend ist lediglich die Wichtigkeit des Geschäftsprozesses. Deshalb spielt auch die häufig vorgenommene Klassifizierung in zentrale, organisierte und individuelle Datenverarbeitung keine Rolle.
Unter letzterer werden beispielsweise die vielen Excel-Sheets verstanden, die sich die Anwender häufig selbst erstellen. Hier kommt der IT eine Sisyphosaufgabe zu, da der Bestand dieser Anwendungen häufig nicht transparent ist und Themen wie Zugriffsrechte schwer zu lösen sind.
All diese Anforderungen stehen zunehmend im Fokus der Regulierungsstellen. Im Finanzdienstleistungssektor hat sich die Aufsichtsbehörde BaFin in ihren Prüfungen mittlerweile auf diese Themen eingeschossen und spezifisches IT-Know-how aufgebaut. Das erzeugt Handlungsbedarf für die Unternehmen, denn die Mindestanforderungen an das Risiko-Management enthalten weitgehende Anforderungen - von der IT-Strategie über Notfallpläne und das interne Kontrollsystem bis zum Outsourcing.
Enabler für die Risikosteuerung
Neben der Steuerung der "eigenen" Risiken kommt der IT auch eine herausragende Bedeutung bei der Steuerung der Risiken anderer Fachbereiche zu. Die Identifikation der Risiken zwischen Fachbereichen und Risiko-Cntrolling geschieht zwar nur sporadisch IT-gestützt. Doch die vollständige Quantifizierung der Risiken setzt interne und externe Daten voraus.
Dazu müssen große Mengen von Daten über die Geschäftsaktivitäten des Unternehmens gesammelt werden. Sofern es sich um einen Konzern handelt, hat die Datenerhebung nicht nur für die einzelnen Konzerngesellschaften, sondern auch auf Gruppenebene zu erfolgen.
Der Geschäftsleitung müssen die Risiken vollständig transparent sein. In vielen Fällen wird daher ein leistungsfähiges Data-Warehouse benötigt, das die für eine Quantifizierung der Risikofaktoren notwendigen Daten in der erforderlichen Granularität und Qualität aufnehmen, verarbeiten und konsolidieren kann.
In-Memory-Datenbanken helfen
Für eine sinnvolle Messung der Risiken sollte zudem die Qualität der Daten sichergestellt sein. Häufig fehlen Daten oder sind nicht korrekt und können dadurch die Ergebnisse der Quantifizierungsmethoden stark verfälschen. Hier muss die IT mit Datenqualitäts-Verfahren Abhilfe schaffen. Zudem sollte sie die Diskussion um die Data Governance vorantreiben. Zur Analyse der Risiken ist es häufig erforderlich, wieder von aggregierten Zahlen auf granulare Daten herunterzugehen. Das war bei traditionellen Datenbanken nur über Data-Marts möglich.
Modernere Technologien, die auf In-Memory-Verarbeitung und Kompressionsverfahren basieren, bieten heute große Vorteile. So werden Produkte wie SAP HANA oder SAS High Performance es ermöglichen, Risiken in sehr hoher Geschwindigkeit bis auf die Ebene einzelner Datensätze zu analysieren, ohne eindeutig definierte und persistente Marts umsetzen zu müssen. Durch eine spalten- statt einer zeilenorientierten Arbeitsweise kann deutlich schneller auf Daten zugegriffen werden.
Paraderolle für die Org-Abteilung
Ein "internes Kontrollsystem" setzt nicht erst bei den IT-Risiken an. Vielmehr sollte es fachbereichsübergreifend Kontrollen dokumentieren und dabei helfen, die Effektivität dieser Kontrollenregelmäßig zu überprüfen (Kontrolle der Kontrolle). Im Idealfall basiert es auf einem fachlichen Prozessmodell.
Das ist die Paraderolle für eine Organisationsabteilung. Sie verwaltet und steuert ja die fachlichen Prozessmodelle. Auch definiert sie Standards und Vorgaben, beispielsweise darüber, wie die Kontrollen zu implementieren sind.
Eine dedizierte Organisationsabteilung ist allerdings nur in wenigen Unternehmen vorhanden; in vielen Fällen ist sie auch nur ein Teil der IT. Häufig versteht sie ihre Aufgabe zu eng: Sie konzentriert sich beispielsweise darauf, ein internes Organisationsportal zu schaffen, das quasi Templates für Prozesse anbietet. Aber sie fühlt sich nicht für das interne Kontrollsystem verantwortlich und ist insofern nicht wirklich "wertschöpfend". Das heißt, die Qualität der Prozesse oder die Effektivität des Kontrollsystems wird durch solche Maßnahmen nicht verbessert.
Kontrolle der Kontrolle
Wie lässt sich die Effektivität der Kontrollmechanismen überprüfen? Es kann ja nicht allein aufgrund der Definition einer Kontrolle angenommen werden, dass diese auch tatsächlich ausgeführt wird. Letztendlich muss die Effektivität und Funktionsfähigkeit des Kontrollsystems regelmäßig auf den Prüfstand gestellt werden.
Dazu wird in der Regel zunächst ein Satz von Kontrollen definiert, die aus Sicht der Unternehmensleitung unverzichtbar sind. Auf dieser Basis führt das Unternehmen dann in regelmäßigen Abständen ein Kontroll-Review aus.
Das geht so: Die Kernkontrollen werden an die Fachbereiche verschickt, die dann nachweisen müssen, dass diese Kontrollen nicht nur vorhanden sind, sondern auch funktionieren. Für diesen Nachweis sind beispielsweise detaillierte Kontrollberichte vorzulegen, die von den verantwortlichen Mitarbeitern bearbeitet und abgezeichnet wurden.
Die Ergebnisse des Kontroll-Reviews werden abschließend in einem Bericht an die Unternehmensleitung zusammengefasst. Stellt sich dabei heraus, dass Kontrollen fehlen oder nicht effektiv sind, werden Maßnahmen zur Abhilfe definiert.
Fazit
Das Risiko-Management ist im Wandel. Sich stetig verändernde Anforderungen, aufsichtsrechtlicher Druck, aber auch neue Werkzeuge in der Datenverarbeitung stellen die Unternehmen vor große Herausforderungen. Die Rolle der IT in diesem Prozess hat eine hohe Bedeutung. Sie muss zum einen systematisch die eigenen Risiken steuern, aber zum anderen auch den Fachbereichen die erforderlichen Werkzeuge dafür bereitstellen. (qua/sh)