Digitale Strategie 2025 – Bessere Entscheidungen
Neue Aufgaben für das „datengesteuerte“ Unternehmen: Das klingt vordergründig einfach und ist doch eine enorme Herausforderung.
Immer größere, komplexere und sich schnell ändernde Datenmengen (Big Data) müssen verarbeitet und analysiert werden. Die besondere Aufgabe sei dabei das Meistern der Volatilität und Geschwindigkeit der Märkte.
Unvorhersehbarkeit und zunehmende Veränderungsgeschwindigkeit seien zur zentralen Herausforderung des Managements geworden, so Wolfgang Martin in seiner 2015 publizierten Untersuchung „Business Intelligence im digitalen Unternehmen“.
Das stelle das Management vor neue Aufgaben:
„Traditionelle Steuerung im Unternehmen funktioniert nicht mehr. Information wird zur entscheidenden Ressource zur Bewältigung von Komplexität und Dynamik der digitalen Welt.“
Jenseits von Erfahrungswissen – auf dem die traditionelle Steuerung beruhte – muss heute und in Zukunft auf der Basis rechtzeitiger Informationen schnell entschieden werden.
„Jetzt kommt es darauf an, im richtigen Augenblick die richtige Information zu haben, die für eine zu treffende Entscheidung die richtige Relevanz hat“
so Martin.
Der Umstand, dass Unternehmen heute „datengesteuert“ sind – es gibt keinen Prozess ohne Daten –, ist wichtigster Treiber „für eine Evolution und gleichsam Neuentdeckung von Business Intelligence“, verdeutlicht Martin.
Unter Business Intelligence (BI) seien alle Strategien, Prozesse und Technologien zu verstehen, bei denen aus Daten Information und aus Information erfolgskritisches Wissen gewonnen wird, sodass Entscheidungen auf Basis von Fakten getroffen werden, die Aktionen zur Unternehmens- und Prozesssteuerung auslösen.
Der Anspruch des Konzepts Business Intelligence sei es also, Entscheidungen auf Fakten zu stellen und bessere Entscheidungen zu treffen.
Das Problem dabei: Damit „bessere Entscheidungen“ getroffen werden können, müssen erst einmal die ihnen zugrunde liegenden Fakten stimmen. Keine leichte Aufgabe, denn die Datenmenge ist schon heute unvorstellbar groß und ihr Wachstum exponentiell.
Datenqualität und Analyse als BI-Probleme
Allerdings ist die schiere Datenmenge nur von begrenztem Wert; erst in einem sinnvollen Kontext werden daraus unternehmensrelevante Informationen.
Wenn es heißt, die größten Chancen von Big Data sähen Unternehmen in der Erhöhung der Profitabilität, gefolgt von einem besserem Marktverständnis sowie einer Optimierung von Organisation und Prozessen (PWC-Studie, Mai 2014), dann sind lediglich größere Datenmengen dafür nicht hinreichend.
Größere Datenmengen bedeuten nicht zwangsläufig auch eine bessere Datenqualität. Eine hohe Datenqualität ist aber eine unabdingbare Voraussetzung, um aus der riesigen Datenmenge die richtigen Schlüsse zu ziehen.
Dass es gerade um die Datenqualität nicht zum Besten bestellt ist, haben zahlreiche Untersuchungen aus den vergangenen Jahren belegt, darunter Steria Mummert Consulting (2013), Barc (2011, 2013, 2014, 2016), Fraunhofer IAO (2013, 2014) und zuletzt Lünendonk (2016).
In dem im Januar 2015 veröffentlichten Papier „Today’s data mastery: multiple domains for a single purpose“ stellt die Aberdeen Group fest, es sei das suboptimale analytische Umfeld, das zum einen Unternehmen daran hindert, spürbaren Wert aus ihren Daten zu generieren, und das zum anderen Möglichkeiten für Wachstum und Effizienzsteigerung ungenutzt lässt.
54 Prozent der befragten Unternehmen sagen, die aktuell unzulängliche Datenanalyse sei die Top-Herausforderung, die Aktivitäten im Datenmanagement treibt. Auf den Plätzen zwei und drei folgen zu viele Datensilos (49 Prozent) und schlechte Datenqualität (47 Prozent).
2017 hat KPMG in Zusammenarbeit mit Bitkom Research zum dritten Mal nach 2015 und 2016 den Status quo und die Perspektiven von Datenanalysen in deutschen Unternehmen untersucht. Die Studie „Mit Daten Werte schaffen“ kommt zwar zu dem Ergebnis, dass 58 Prozent der Unternehmen davon ausgehen, die von ihnen eingesetzten Datenanalysen seien genau – immerhin 42 Prozent haben aber Zweifel an der Genauigkeit.
Das mag nicht zuletzt auch daran liegen, dass viele Unternehmen mit der Qualität ihrer Daten hadern. So bekundet immerhin rund ein Drittel der befragten Unternehmen, mangelnde Datenqualität sei eine Herausforderung.
Laut KMPG zeigen sich kaum Unterschiede zwischen den Branchen. Lediglich die Maschinen- und Anlagenbauer scheinen besonders betroffen: Immerhin 51 Prozent empfinden die mangelnde Güte ihrer Daten als Hürde.
MDM verbessert Genauigkeit
Kann Stammdatenmanagement helfen? Als Stammdaten (Master Data) bezeichnet man statische Grunddaten oder Referenzdaten zu betriebsrelevanten Objekten wie beispielsweise Produkten, Lieferanten, Kunden und Mitarbeitern.
In einer weiteren Untersuchung zum Master Data Management hat die Aberdeen Group im September 2014 192 Unternehmen unter anderem dazu befragt, ob sie die Genauigkeit ihrer Geschäftsentscheidungen innerhalb eines Jahres verbessern konnten. V
on den Unternehmen, die MDM einsetzen, sagen dies 58 Prozent; dagegen gelingt dies nur 45 Prozent der Unternehmen ohne MDM. Eine bessere Datengenauigkeit trage in Organisationen mit MDM also zur erhöhten Verbesserungsrate der Genauigkeit von geschäftlichen Entscheidungen insgesamt bei.
Master Data Management biete Entscheidern nicht nur eine verbesserte Sichtbarkeit und zuverlässigere Rohdaten für die Analyse, es verbessere auch die Möglichkeiten für die Zusammenarbeit zwischen internen und externen Beteiligten:
Stakeholdern über verschiedene Abteilungen, Business Units oder gar Organisationen hinweg stehen jeweils dieselben relevanten Daten so zur Verfügung, wie sie sie brauchen.
Multidomain-MDM
Das vielleicht prägendste Charakteristikum der sogenannten MDM-„Leader“ sei, so die Aberdeen Group, die Fähigkeit, mehrere Datendomänen simultan zu managen.
Multidomain-MDM verbessert die Dateneffizienz gleich in mehrfacher Hinsicht: Zum einen ist die Genauigkeit der Daten um 8,7 Prozent und die Vollständigkeit um 11,9 Prozent besser als bei Non-Multidomain-MDM. Noch sehr viel deutlicher werden die Vorteile von Multidomain-MDM aber bei den – nicht zuletzt für wirkungsvolle BI wichtigen – Kriterien „time to information“ und „accuracy of decisions“.
Beim Einsatz von Multidomain-MDM sehen 64 Prozent Verbesserungen bei „time to information“, gegenüber lediglich 35 Prozent bei Non-Multidomain. Geht es um Verbesserungen bei dem Kriterium „accuracy of decisions“ liegt Multidomain mit 69 Prozent ebenfalls deutlich vor Non-Multidomain mit 48 Prozent.
Unternehmen mit nur einer Version der „Wahrheit“ und einem Master Data Record für jede Schlüsseldomäne verbringen weniger Zeit damit, Informationen zu suchen oder die Verlässlichkeit vorhandener Daten zu bestätigen, und haben mehr Zeit für relevante Analysen.
Multidomain-MDM zentralisiert das gesamte Stammdatenmanagement. Alle relevanten Daten vom Einkauf bis zum Verkauf laufen in einem zentralen System zusammen.
So lassen sich ein „Golden Record“ für zum Beispiel Kunden, Produkte, Lieferanten bilden sowie Verbindungen und Korrelationen zwischen diesen Domänen erkennen. Man erhält einen Rundumblick auf die Stammdaten über alle Domänen hinweg.
Ein Multidomain-MDM schafft somit die „eine Wahrheit“ für unterschiedliche Stammdatendomänen über den gesamten Geschäftsprozess.
Ob Fachabteilung oder Unternehmensführung – wer aus Daten Information und aus Information erfolgskritisches Wissen gewinnen will, um Entscheidungen auf Basis valider Fakten treffen zu können, der kommt an einem professionellen Datenqualitäts- und Stammdatenmanagement keinesfalls vorbei. Sich davor zu drücken hieße, sehenden Auges das Risiko einzugehen, nicht nur keine besseren Entscheidungen zu treffen, sondern falsche.