ERP-Betrieb, ERP-Technologie

Datenqualität im Lieferanten-Risikomanagement

4. Mai 2016 von Anja Wilde und Robert Dust

Datenqualität im Lieferanten-Risikomanagement

Durch die Verlagerung von Wertschöpfung und Innovation in das externe Beschaffungsnetzwerk erhöht sich immer mehr die Abhängigkeit von Lieferanten. Kürzere Innovationszyklen sowie branchenübergreifende Geschäftsmodelle erweitern die Komplexität des zukünftigen Wertschöpfungsnetzwerkes. Somit werden neue Methoden zur Steuerung des Beschaffungsnetzes notwendig. Mathematische Modelle sorgen für eine Vernetzung von Daten zu Wissen und lassen mögliche Risiken in der externen Wertschöpfung erkennen, sodass ein präventives Vorgehen gewährleistet wird. Die Basis für dieses Vorgehen ist jedoch eine valide Datengrundlage zur Berechnung von Kennzahlen. Ist diese nicht vorhanden, sind die generierten Informationen nicht belastbar. Ein Data Checker prüft die Datengrundlage vorher automatisiert auf Plausibilität, Validität und Verfügbarkeit.

Die Wertschöpfungs- und Technologieinnovationen verschieben sich zunehmend zum Lieferanten. Aus diesem Grund sind die Steuerung und Überwachung der Lieferantenaktivitäten zu einem der wichtigsten erfolgs- und wettbewerbsentscheidenden Faktoren für Unternehmen geworden [1]. Die Notwendigkeit eines Lieferanten-Risikomanagements ist somit die unmittelbare Folge aus einer zunehmenden Vernetzung der Supply-Chain-Tätigkeiten zwischen verschiedenen, global agierenden Branchen. Dabei entspricht die heutige Steuerung der Wertschöpfungskette nicht den Anforderungen einer gestiegenen externen Leistungserbringung. Eine zunehmende Abhängigkeit vom Lieferanten im globalen Umfeld erfordert eine kooperative Zusammenarbeit in der Supply Chain, sodass Reibungsverluste minimiert und gemeinsame Potenziale ausgeschöpft werden können.


Bild 1: Gestuftes Bewertungsmodell des Total Supplier Managements.

Insbesondere Unternehmen, die eine hohe externe Wertschöpfungstiefe und Produktkomplexität aufweisen, unterliegen einer starken Abhängigkeit gegenüber ihren Lieferanten. Die daraus hervorgehende Wechselbeziehung setzt zur Steuerung der externen Leistungserbringung konsequent den Einsatz von durchgängigen Organisationsstrukturen, Prozessen und Methoden voraus. Um Probleme und Risiken in der Versorgung mit Komponenten oder Dienstleistungen frühzeitig zu erkennen, ist eine präventive und bereichsübergreifende Bewertung der Lieferanten notwendig [2].

Heutige Bewertungsmethoden für Lieferanten liefern keine validen Aussagen über die gesamte Lieferantenbasis eines Unternehmens. Ein Lieferanten-Risikomanagement basiert im aktuellen Verständnis überwiegend auf gewichteten und konsolidierten Kennzahlen, die oft keine leistungs- oder risikorelevanten Aussagen besitzen. Diese Methodik generiert kein Wissen über die gesamte Lieferantenbasis. Akute Probleme werden durch die Intransparente Entscheidungsgrundlage erst verspätet entdeckt. Aufgrund des hohen Aufwands, jeden Lieferanten zu bewerten, geben 82 % der Unternehmen an, lediglich einen Teil der Lieferanten überhaupt zu beurteilen. Dabei werden vermeintlich unwichtige Lieferanten aus dem Fokus der Betrachtung genommen. Potenzielle Risiken werden dann überhaupt nicht betrachtet [3].


Wissen effizient generieren
Ein Wissensmanagement mit intelligenten Auswertungsmethoden ermöglicht eine frühzeitige Identifikation von Risiken in einer Lieferanten-Abnehmer-Beziehung. Das können beispielsweise Lieferengpässe oder Qualitätsdefizite sein. Dazu erfassen Industrieunternehmen heute eine hohe Anzahl von Leistungsdaten ihrer Lieferanten. Dies erfolgt meist mit historisch gewachsenen und nicht immer zeitgemäßen IT-Strukturen, sodass die Auswahl der Daten und die darauf folgenden Berechnungen nicht immer einer effektiven Systematik unterliegen. Ein solches Vorgehen hat nicht nur eine ungenügende Datenqualität einzelner Kennzahlen zum Ergebnis, sondern verhindert auch deren Konsolidierung zu einer transparenten und nachvollziehbaren Gesamtaussage über die Leistungsfähigkeit der Lieferanten. Auf diese Weise werden wesentliche Grundvoraussetzungen zur effizienten Steuerung der Lieferantenbasis nicht gegeben und damit nicht umgesetzt.


Bild 2: Übersicht über die verschiedenen Formen des DataCheckers.

Der Ansatz eines gestuften Bewertungsmodells bietet die Möglichkeit, kritische Zulieferer aus der gesamten Lieferantenbasis zu ermitteln. Die Lieferantenbewertung basiert auf Einzelbewertungen der Fachbereiche, welche in einem gestuften Bewertungsmodell zu bereichsübergreifenden Aussagen konsolidiert werden. Der zielgerichtete und systematische Einsatz von operativen Sensoren, Prognosen und weichen Faktoren (Soft Facts) ermöglicht eine effiziente Anwendung bei maximaler Transparenz (Bild 1). Alle Lieferanten durchlaufen dabei eine dreistufige Analysemethodik. Dabei wird die Anzahl der zu betrachtenden Lieferanten, wie in einem Filter, reduziert. Während in der ersten Stufe noch alle aktiven Lieferanten eines Unternehmens durch wenige Kennzahlen analysiert werden, reduziert sich deren Zahl der Zulieferer in der zweiten und dritten Stufe.

Durch dieses Vorgehen werden innerhalb einer Stufe, alle benötigten Informationen zur Verfügung gestellt, wobei gleichzeitig der Analyseaufwand stark reduziert wird. Das Modell folgt dem Grundsatz: Bewertung aller Lieferanten mit relevanten Sensoren innerhalb einer Stufe, statt der Bewertung ausschließlich wichtiger Lieferanten mit allen Sensoren [4].

  1. Identifikation auffälliger Lieferanten mithilfe von wenigen ausgewählten Risikoindikatoren und einem Trend- und Prognosemodell.
  2. Nutzung von Soft Facts (bspw. das Kommunikationsverhalten eines Lieferanten) als weitere Entscheidungsgrundlage, um Verbesserungsmaßnahmen bei den als kritisch definierten Lieferanten aus Stufe 1 einzuleiten.
  3. Teile- und standortübergreifende Bewertung der Prozessfähigkeit der Lieferanten aus Stufe 2, für eine verursachungsgerechte Ermittlung der Defizite um eine nachhaltige Problemlösung zu generieren.

Unter Berücksichtigung von Trend- und Prognosemodellen können kritische Lieferanten schon früh identifiziert werden. Der Vorteil einer frühzeitigen Erkennung von Trends besteht darin, dass eine präventive Handlung ermöglicht wird. So können Zeit und Kosten im Vergleich zu einer reaktiven Vorgehensweise gespart werden. 


Bild 3: Fehlerhafte Datengrundlage bei der Qualitätskennzahl
ppm für logische und statistische Data Checker.


Datengrundlage durch Data Checker

Um die präventive Absicherung der externen Wertschöpfung mithilfe mathematischer Modelle zu gewährleisten, ist eine robuste Datengrundlage notwendig. Oftmals verlassen sich Unternehmen auf die Abläufe in ERP-Systemen, ohne dessen Informationsinhalte zu hinterfragen. Werden diese notwendigen Voraussetzungen nicht geschaffen, können Fehlentscheidungen zu einem ineffizienten Ressourceneinsatz bei der Umsetzung von Maßnahmen führen oder bewirken im ungünstigsten Fall sogar das Unterlassen notwendiger Aktivitäten [3]. Somit führt eine schlechte Datenqualität zu einer falschen Einschätzung der Risikosituation.

Durch die hohe Datenvielfalt benötigen die Unternehmen neue Konzepte zur Absicherung einer validen Datengrundlage. Die Realität wird oftmals nur unvollständig abgebildet. Die Ursachen schlechter Datenqualität sind in diesem Zusammenhang vielfältig [5]. Manuelle Eingabefehler sind oft auf die Unachtsamkeit des Anwenders zurückzuführen. Das Resultat sind falsche oder fehlende Eingaben. Durch eine systematische Datenanalyse kann die Robustheit der Daten verbessert werden. Der Data Checker umfasst die Überprüfung der Datenplausibilität, -validität und -verfügbarkeit. Hierfür werden die vorhandenen Leistungsdaten der Lieferanten in ein Analysemodell importiert und durchlaufen standardisierte Auswertungsmethoden [3]. Dabei können logische, statistische und formale Methoden unterschieden werden (Bild 2).

Eine Plausibilisierung von Grunddaten ermöglicht eine logische Verknüpfung von Informationen (logischer Data Checker). Datensätze aus unterschiedlichen Systemen müssen konsistent sein. Ist eine Widerspruchsfreiheit der Daten aus unterschiedlichen Anwendungen gewährleistet, liegt eine gute Datenqualität vor. Beispielsweise gibt ein Managementsystem bei einem Lieferanten zur Qualitätskennzahl ppm den Wert Null an (Bild 3). Somit könnten systemseitig keine korrektiven Maßnahmen, wie z. B. 8D Reports hinterlegt sein. Ist dennoch ein 8D Report vorhanden, hat entweder die systemische Schnittstelle versagt oder der Vorgang der Eingabe wurde nicht berücksichtigt.

Ist ein Datensatz statistisch, aufgrund von Werten aus der Vergangenheit, nicht zu erklären, kann dieser ebenfalls als auffällig gekennzeichnet werden (statistischer Data Checker). Die Ursache analytischer Extremwerte in den Kennzahlen wird dann erörtert. Zum Beispiel sollte die gesamte Lieferantenbasis bei der Kennzahl ppm normalverteilt sein. Werden auffällig viele Werte mit Null ppm angegeben, ist auf einen systemischen Fehler zu schließen (Bild 2). Ist dieser Fehler erkannt, werden die Grunddaten nun nicht durch eine Glättung oder Konsolidierung verrechnet. Lediglich die validen Datensätze werden für den weiteren Prozess verwendet.

Eine formale Kontrolle erlaubt die Bereinigung von Inhalten, die nicht dem gewünschten Datenformat entsprechen (formaler Data Checker). Eine manuelle Dateneingabe birgt dabei das höchste Fehlerpotenzial. Ein einfaches Beispiel ist das Eintragen eines Datums in einem System. Hier sollte nicht nur das Datum inhaltlich korrekt sein, sondern auch in dem vom System vorgegebenem Format eingetragen werden. Ist dies nicht der Fall, können fehlerhafte Datensätze ggf. nicht weiter verarbeitet werden.

Die größte Herausforderung bei der Überprüfung der Datengrundlage besteht darin, die verschiedenen Systeme im Unternehmen über Schnittstellen zu verbinden. Erschreckenderweise haben die Unternehmen allein für das Lieferantenmanagement durchschnittlich 4,5 Systeme, die nicht miteinander verknüpft sind [6].


Bild 4: Total Supplier Management Modell.

Wissen intelligent einsetzen

Die heutige Steuerung des externen Wertschöpfungsnetzwerkes entspricht nicht den Anforderungen einer gestiegenen externen Leistungserbringung. Fehlende Transparenz und Aussagekraft der genutzten Kennzahlen sind unzureichend. Ein innovatives Lieferanten-Risikomanagement beruht auf intelligenten Methoden zur Wissensgenerierung. Hierzu zählt auch die Entscheidung und Durchführung von geeigneten Maßnahmen zur Sicherstellung bzw. Wiederherstellung der vereinbarten Lieferantenleistung. Über die Maßnahmen zur Risikovermeidung, -minimierung und -beherrschung entscheidet ein sich regelmäßig abstimmender Lieferantensteuerkreis. Mittels situationsgerechter und effizienter Eskalationsmodelle wird die Lieferantenleistung gesichert bzw. nachhaltig wieder hergestellt.    

 

 

Data CheckerDatenqualitätLieferantenmanagementRisikomanagementSupply Chain Management


[1] Bundesverband der Deutschen Industrie e.V.: Deutschland 2030 – Zukunftsperspektiven der Wertschöpfung, Berlin, 2011, S. 20.
[2] Dust, R.; Gleinser, M.; Gürtler, B.: Lieferfähigkeit präventiv absichern, In: Management und Qualität 1-2, 2010, S. 27 - 29.
[3] Dust, R.; Gürtler, B.: Total Supplier Risk Monitoring, In: Quality Engineering, Ausgabe 6, 2010, S. 10 - 11.
[4] Dust, R.: Total Supplier Management - Strategische Wettbewerbs- und Kostenvorteile durch ein ganzheitliches Lieferantenmanagement. Studie. 2013, S. 25.
[5] Apel, D.; Behme, W.; Eberlein, R.; Merighi, C.: Datenqualität erfolgreich steuern. 2010, S. 32 ff.
[6] Aberdeen Group: Supplier Lifecycle Management, Studie. 2012.
[7] Dust, R.: Total Supplier Management - Strategische Wettbewerbs- und Kostenvorteile durch ein ganzheitliches Lieferantenmanagement, Studie. 2013, S. 11.




Das könnte Sie auch interessieren

Anbieterportal


alle Anbieter
Sharer Icon: facebookSharer Icon: TwitterSharer Icon: LindekInSharer Icon: XingSharer Icon: EnvelopeSharer Icon: Print
Banner

Melden Sie sich zur Onlineveranstaltung an

16.11.2020: Finale Wettbewerb Fabriksoftware des Jahres

23.11.2020: Fachkongress Fabriksoftware

Wir verwenden Cookies, um die Nutzererfahrung stetig zu verbessern. Mehr Erfahren.

Essentielle Cookies

Cookie Settings
Speichert Einstellungen, die hier getroffen werden. (1 Jahr)

Statistik

Google Analytics | Google LLC | Datenschutz
Cookie von Google für Website-Analysen. Erzeugt statistische Daten darüber, wie der Besucher die Website nutzt. Alle Informationen werden anonymisiert gespeichert. (2 Jahre)