Datenqualitäts- und Stammdatenmanagement
Eine Herausforderung moderner Unternehmensführung

Monika Pürsing

In der digitalen Ökonomie sind verlässliche und korrekte Daten unabdingbar für valide Entscheidungen in den Unternehmen und in der Wirtschaft allgemein. Leider ist die Datenqualität oft mangelhaft. Erschwerend kommt hinzu, dass die zu bewältigenden Datenmengen exponentiell wachsen. Im Ergebnis: Unternehmen und Organisationen haben ein ernsthaftes Problem, denn sie müssen auf eine Reihe von Anforderungen reagieren, für die hohe Datenqualität eine kritische Voraussetzung ist.

Im Bereich der digitalen Ökonomie ist es entscheidend, dass Daten werthaltige Faktoren für Unternehmen und Wirtschaft sind. Laut einer PwC-Studie aus dem Jahr 2014 [1] ist die Bedeutung von Daten heute je nach Branche sehr unterschiedlich, nimmt aber insgesamt deutlich zu. Im Durchschnitt sei die Analyse und Nutzung von Daten heute für die Hälfte aller befragten Unternehmen von hoher Bedeutung. Für die Zukunft seien branchenübergreifend 90 Prozent aller Unternehmen davon überzeugt, dass die Fähigkeit, große Datenmengen effizient zu analysieren und effektiv zu nutzen, für den Erfolg ihres Geschäftsmodells von entscheidender Bedeutung sein wird. Damit das Investitionsgut „Daten“ wirksam genutzt werden kann, ist eine hohe Datenqualität unverzichtbar.

Leider ist die Datenqualität in den Unternehmen oft mangelhaft. Nach dem vom Business Application Research Center (BARC) durchgeführten „BI Survey 13“ [2] zählt schlechte Datenqualität seit Jahren zu den Top-3-Problemen der Business Intelligence. Fachbereiche beklagen, es gebe keinen zentralen Ort, der die „wahren“ Daten bereithält („Single Point of Truth“, Bild 1). Es wird in einer weiteren BARC-Studie bestätigt [3], dass 80 Prozent der Mitarbeiter ein „durchschnittliches, geringes oder gar kein Vertrauen“ in die Datenqualität ihrer Unternehmen haben. Die Ursachen für schlechte Datenqualität sind dabei vielfältig: keine klar definierten Prozesse und Verantwortlichkeiten für die Datenpflege sowie ein Wildwuchs an Datenquellen und Systemen. Thomas C. Redman, Präsident der Navesink Consulting Group und ein Fachmann für Datenqualität, hat schon vor Jahren geschätzt, dass der negative Effekt schlechter Datenqualität bei acht bis zwölf Prozent des operativen Gewinns liegt.

Zu mangelhafter Datenqualität und -aktualität kommt künftig erschwerend hinzu, dass die zu bewältigenden Datenmengen exponentiell wachsen. Big Data, Internet der Dinge und Industrie 4.0 sorgen dafür, dass die Beherrschung der enormen Datenströme zur gewaltigen Herausforderung der Unternehmen wird.


Bild 1: Single Point of Truth für Stammdaten. (Quelle: zetVisions AG)


Strategische Treiber für Datenqualität

Die European Foundation for Quality Management (EFQM) und das Institute of Information Management an der Hochschule St. Gallen (IWI-HSG) haben darauf hingewiesen, dass Unternehmen und Organisationen auf eine Reihe von Anforderungen reagieren müssen, für die hohe Datenqualität eine kritische Voraussetzung ist [4]:

  • Risikomanagement und Compliance:
  • Zahlreiche Branchen unterliegen in wachsendem Maße rechtlichen und regulatorischen Bestimmungen. Regulatorische Anforderungen erfordern ein unternehmensweites, standardisiertes Management von Geschäftsdaten.
  • Ganzheitliche Sicht auf den Kunden: Unternehmen, deren Mehrwert durch einen hohen Servicelevel und kurze Produktlebenszyklen gekennzeichnet ist, benötigen sämtliche kundenbezogenen Informationen auf Knopfdruck. Üblicherweise müssen diese Informationen aus zahlreichen Quellen und Informationssystemen innerhalb der Organisation zusammengetragen werden. Dies erschwert einen konsistenten Überblick über jeden einzelnen Kunden.
  • Geschäftsprozessintegration, Automatisierung, Standardisierung: Durch integrierte Geschäftsprozesse, Automatisierung und Standardisierung können Unternehmen von Skaleneffekten profitieren und gleichzeitig die Komplexität ihrer Geschäftsprozesse reduzieren. Dazu benötigen Unternehmen ein gemeinsames Verständnis der Geschäftsinformationen, die in allen Geschäftseinheiten genutzt werden. Die Standardisierung von Prozessen kann nicht gelingen, wenn beispielsweise Stammdaten zu Lieferanten und Materialien in unterschiedlicher Weise definiert, produziert und genutzt werden.
  • Reporting: Sind Daten aus verschiedenen Geschäftseinheiten, Abteilungen, Filialen oder Tochtergesellschaften zu konsolidieren, müssen sie einheitlich genutzt werden und aktuell sein. Da Unternehmensdaten in allen Geschäftseinheiten genutzt werden, müssen die Anforderungen stets und überall dort eingehalten werden, wo unternehmensweites Reporting stattfindet.
  • IT-Konsolidierung: Hinsichtlich ihrer IT-Departments verfahren viele Unternehmen nach der Maxime „Tue mehr mit weniger“. Sie wollen ihre IT-Ausgaben reduzieren. Da die Betriebskosten der größte Kostentreiber sind, versuchen Unternehmen, ihre IT-Infrastruktur und Applikationen zu konsolidieren. Vor dem Hintergrund über Jahrzehnte gewachsener IT-Landschaften wissen viele Unternehmen nicht, welche Systeme für welche Stammdaten verantwortlich sind und wie der Datenfluss zwischen den Systemen erfolgt. Ohne ausreichende Transparenz über die Stammdatenarchitektur können Unternehmen keine vernünftige Entscheidung darüber treffen, aus welchem System Stammdaten beseitigt oder konsolidiert werden können.

All diese strategischen Treiber haben gemein, so das ISI-HSG, dass ihre Anforderungen an die Datenqualität Unternehmen als Ganzes beeinflussen und nicht von jedem Geschäftsbereich oder jeder Abteilung allein erfüllt werden können.

[Wenn Sie weiterlesen möchten, klicken Sie hier]