Direkt zum Inhalt wechseln
SIRIUS Consulting & Training GmbH
Suche
Leider wurden zu dem Suchbegriff keine Beiträge gefunden.
Kernprozesse des Stammdatenmanagements

Kernprozesse des Stammdatenmanagements

Zentrales Stammdatenmanagement (engl. Master Data Management = MDM) betreibt man nicht aus Selbstzweck. In Einzelfällen mag es vielleicht sinnvoll sein, wenn ein Unternehmen die Datenverwaltung seiner einzelnen, unabhängig voneinander agierenden Geschäftseinheiten einfach autark vor Ort belässt. In der Regel aber verbinden sich mit einer Harmonisierung der Unternehmensstammdaten handfeste Vorteile: Geschäftsprozesse greifen besser ineinander und Fehler minimieren sich.

Die sechs Dimensionen des MDM

Wer sich mit Stammdatenmanagement beschäftigt, kann die unterschiedlichen Themen des MDM in sechs Dimensionen einteilen:

  • Strategy (Aus der übergeordneten Geschäftsstrategie leiten sich die Strategie und der Rahmen des MDM ab.)
  • Governance (Verteilung von Rollen, Aufgaben und Zuständigkeiten innerhalb des MDM)
  • Quality (Wie müssen Lebenszyklusmanagement-Prozesse für Daten und ein kontinuierliches Datenqualitätsmanagement gestaltet sein?)
  • Integration (Entwurf der Geschäftsprozesslandkarte und der darunter liegenden Systemarchitektur)
  • Administration (Workflow-Management zur Optimierung der Stammdaten-Kernprozesse)
  • Modelling (das eigentliche Datenmodell, d.h. die Summe der Attribute)

Im dritten Punkt „Quality“ steckt, was gemeinhin als die „Kernprozesse des Stammdatenmanagements“ bezeichnet wird. Darunter versteht man zunächst einen definierten Lifecycle-Management-Prozess zur korrekten Erstellung, Änderung, Löschung und Archivierung von Stammdatenobjekten. Hier werden Fragen gestellt wie: Welche Attribute dürfen angelegt werden? Wer muss gefragt werden, ob ein Material angelegt werden darf? Welche Kriterien gibt es für die Löschung und Archivierung usw.

Augen auf. Zu jeder Zeit!

Im Datenqualitätsmanagement geht es weiterführend darum, die Qualität der Stammdaten in regelmäßigen Abständen zu kontrollieren. Daten müssen eben nicht nur sauber angelegt werden, sondern viele Informationen innerhalb eines Stammdatums haben auch eine begrenzte Halbwertzeit (Beispiel: Kunden firmiert um). Hierfür gibt es Tools, um Stammdaten mit zentralen Datenbanken abzugleichen.

Auf den Punkt gebracht sagen die Kernprozesse des Stammdatenmanagement also: Stammdatenobjekte und damit die Datenqualität müssen von ihrer Erstellung bis zur Löschung gemanaged werden. Es geht nicht nur darum, fehlerfreie Daten zu generieren, sondern diese auch leistungsgerecht sowie in kurzer Zeit anzeigen zu können. Und ihre Qualität muss kontinuierlich überwacht werden. Mit diesem grundsätzlichen Anspruch spielen die Kernprozesse – über die Kategorie „Quality“ hinaus – in allen fünf weiteren Dimensionen eine wichtige Rolle.

Benjamin Schnepper, Business Unit Manager MDM

„Für die Datenqualität muss das richtige Maß gefunden werden – Die Fehlerfreiheit ist hierbei nur ein Teil des Ganzen“

– Benjamin Schnepper, Business Unit Manager Master Data Management,  SIRIUS

Nur „richtige“ Daten alleine genügen nicht

„Qualität“ definiert sich nach einer vielschichtigen Kategorienmatrix. Daten müssen zunächst fehlerfrei, objektiv und glaubwürdig sein, mit anderen Worten: inhärent. Hohe Datenqualität bemisst sich aber auch daran, ob Systeme vorhanden sind, die die Zugänglichkeit und Bearbeitbarkeit von Daten garantieren. Oder ob die Daten überhaupt einen Zweck haben (wie relevant und aktuell sind sie, tragen sie zur Wertschöpfung bei?). Schließlich ist auch der Darstellungsbezug nicht zu vernachlässigen: Wie verständlich sind die Daten, werden sie übersichtlich und einheitlich präsentiert?

SIRIUS setzt Datenqualität konkret im Kundenprojekt um

Gemeinhin wird gesagt, mit der Stammdatenqualität sei es in vielen Unternehmen nicht zum Besten gestellt. Wie sich das Problem angehen lässt, hat SIRIUS in einem konkreten Kundenprojekt unter Beweis gestellt. Als MVP wurde dort ein beispielhafter Prozess für die Anlage oder Änderung eines Materials aufgesetzt.

Die antragstellende Person gibt dabei ihren Request ein, der anschließend von mehreren Fachbereichen geprüft und ggf. mit weiteren Informationen angereichert wird. Das derart vervollständigte Stammdatum wird in einem „Global Master Data Record“ abgelegt und von dort weiter an nachfolgende Systeme distribuiert. Nicht wahllos allerdings, sondern jedes Folgesystem erhält im Sinne der Datenqualität und des Datenschutzes nur die Daten, die es wirklich benötigt. Die selektive Übertragung erhöht zugleich die Performanz der Systemlandschaft.

Am Ende wird der Datensatz in den lokalen Systemen um standortspezifische Informationen ergänzt. Damit wären wir am Ende der Neuanlage angelangt. Vorteil für den Kunden, wenn die Datenerzeugung mit einem solch regulierten Prozess startet: Er hat verlässliche Daten und stellt sicher, dass nur solche Informationen ins System gelangen, die einen entsprechenden Governance-Prozess durchlaufen haben – wichtig insbesondere in regulierten Branchen. Ist von Beginn an alles sauber aufgesetzt, muss auch im Nachhinein niemand mehr prüfen, ob die Daten wirklich fehlerfrei sind und im Zweifel reaktive Datenqualitätsmaßnahmen starten.

Vertrauensbasis für alle folgenden Geschäftsprozesse

Wir haben also festgelegt, dass Materialien an einer zentralen Stelle angelegt und von dort verteilt werden. Jedes System, das Zugriff auf die Materialdaten benötigt, erhält diese auch. Die Verantwortlichen für die dezentralen Systeme müssen damit ihren Daten nicht mehr hinterherlaufen, weil diese irgendwo an anderer Stelle angelegt wurden – eine extreme Vermeidung von Datensilos und die Vertrauensbasis für alle folgenden Geschäftsprozesse. Dabei stellen Anlage und Änderung nur einen Teil der Lebenszyklusmanagement-Prozesse dar. Der Kreis schließt sich mit Löschung und Archivierung, für die analog entsprechende gesetzliche und regulative Anforderungen zu erfüllen sind. Datenqualität ist eben ein Thema, dass nicht punktuell betrachtet werden darf, sondern über den gesamten Lebenszyklus eines Stammdatums hinweg.

Titelbild: © jacoblund/iStockPhoto

Benjamin Schnepper

Benjamin Schnepper Director Engineerung & Operations @ German Edge Cloud