Process Mining wird bei der BSH Hausgeräte GmbH zur kontinuierlichen Optimierung von Prozessen eingesetzt. Dabei kommt es darauf an, die Anbindung und den Zuschnitt der Daten aus unterschiedlichen Quellsystemen richtig zu modellieren und auf die jeweiligen End-to-End-Prozesse zuzuschneiden. Eine funktionsübergreifende Betrachtung ermöglicht es, das Denken in Silos zu überwinden und dabei die Prozesseffizienz insgesamt zu erhöhen.
Mit Process Mining ist es möglich, objektive und statistisch relevante Aussagen über die Prozessflüsse und Prozesseffizienz im Unternehmen zu machen. Wir sind nicht mehr gezwungen, hypothesenorientiert vorzugehen, sondern können die Optimierungsmaßnahmen zielgerichtet ansetzen. Ohne großen Aufwand und faktenorientiert können wir nun Unternehmensprozesse in Echtzeit nachvollziehen: Wo liegen Probleme und Ursache-Wirkungs-Prinzipien? Wo sind Effizienzreserven? Wo verlieren wir Geschwindigkeit und Working Capital? Wo haben wir zu viele manuelle Aufwendungen und Nacharbeit? Um dabei zu durchgehenden Prozessflüssen und relevanten Aussagen zu kommen, gilt es die Anbindung und den Zuschnitt der Daten funktionsübergreifend zu modellieren.
Anforderungsgerechte Anbindung der Systeme und Daten
Process Mining ist kein Selbstzweck. Am Ende sollen der Aufwand und die Komplexität des Datenmodells im geeigneten Verhältnis zum Nutzen der Auswertungen stehen. Entscheidend ist die Wahl der richtigen Perspektive und der „Blick durch die Datenwolke“. Die Sicht auf die Daten und die zugehörigen Analysen (Use Cases) müssen einen echten Beitrag zur Prozessoptimierung leisten. Um also das Potenzial von Process Mining optimal auszuschöpfen, sollten folgende Punkte Beachtung finden:
- Erst skalieren, dann messen. Zunächst sind die Effizienzkennzahlen und Optimierungshebel inhaltlich festzulegen und dann die Daten darauf auszurichten und nicht umgekehrt. Nur so bleibt am Ende der Bezug zum Unternehmenserfolg erhalten.
- Cross-funktionale Projektteams. Ein Data-Mining-Projektteam sollte multifunktional aufgebaut sein. Im Team sollten Mitarbeiter der IT, Experten aus den Fachabteilungen sowie idealerweise global verantwortliche Prozessmanager vertreten sein. So kann gewährleistet werden, dass die Analysen tatsächlich geschäftsrelevant aufgebaut sind.
- End-to-End Perspektive geht vor Abteilungs-Perspektive. Es ist wichtig, in der Analyse und in der Prozessmodellierung (Process Mapping) End-to-End zu denken – unter Berücksichtigung aller Funktionen die im Prozess involviert sind. Ursache und Wirkung können nämlich im Prozessfluss oft auseinanderliegen.
- Standard-Analysen und Use Cases. Wenn möglich sollten unternehmensweite Standard- Analysen durchgesetzt werden. Dies wahrt die Vergleichbarkeit der Daten und die Möglichkeit zum internen Benchmarking. Darüber hinaus trägt es zur Prozess-Standardisierung bei, da Abweichungen als solche erkennbar sind. Auch die Geschwindigkeit im Rollout nimmt dadurch zu.
Die richtigen Einführungsschritte
Ein Einführungsprojekt gliedert sich generell in drei Blöcke, bei denen jeder für sich die Komplexität des Datenmodells enorm beeinflussen kann. Dies gilt insbesondere bei heterogenen Systemlandschaften und Prozessen.
Schritt 1: Definition des Prozessumfangs (Scoping). Es lohnt sich zunächst, den Umfang und Inhalt des Prozesses klar zu definieren und abzugrenzen. Was ist der Prozessbeginn, was das Prozessende? Welche Geschäftsvorfälle sollten abgedeckt werden? Welche Informationsträger sind notwendig, und welche Systeme und Daten sind dafür anzubinden? Oft kann eine kleine Veränderung im Prozessumfang die Komplexität extrem erhöhen. Für jeden Prozessfluss gibt es einen Haupt-Anker bzw. Haupt-Datenträger (Case Key) im System – z.B. die Bestellung, die Rechnung etc. Die Kombination vieler solcher Informationsträger erhöht den Umfang des Datenmodells exponentiell. Aus unserer Erfahrung macht es Sinn, sich zunächst nach einem 80-20-Prinzip auf die wesentlichen Themen zu beschränken.
Schritt 2: Modellierung des Prozessflusses mit den zugehörigen Aktivitäten. Eine Priorisierung gilt auch für die Auswahl der anzuzeigenden Aktivitäten mit den zugehörigen Transaktionsdaten und SAP-Tabellen. Theoretisch kann jeder Feldeintrag in einem System als Aktivität im Prozessfluss ausgewertet werden. Wenn man hier zu pauschal vorgeht, verliert man danach den Überblick. Die Aktivitätsdaten beeinflussen auch, was später in den Analysen und Dashboards angezeigt werden kann. Daher dürfen insbesondere diejenigen Daten nicht vergessen werden, die auf einen manuellen Aufwand im Prozess hinweisen – wie zum Beispiel alle nachträglichen Änderungsarbeiten an einer Bestellung.
Schritt 3: Design der Standard-Auswertungen und Dashboards. Die Auswertungen müssen geschäftsrelevant und aussagekräftig sein. Zum Beispiel wäre eine unreflektierte Übernahme von Informationen und Kürzeln aus den SAP-Systemen nur noch Fachleuten zugänglich. Kennzahlen sollen auch nicht redundant erhoben werden, wenn sie bereits ohne zusätzlichen Aufwand aus anderen Systemen abgeleitet werden können. Der Fokus sollte auf Prozessoptimierung liegen. Letztlich gilt es, den Verantwortlichen eine Hilfestellung zu geben, mit welchen Aktivitäten, Kunden oder Lieferanten manueller Aufwand im Prozess zu reduzieren ist und wo sich Durchlaufzeiten verkürzen lassen.
Nächste Schritte
Der große Vorteil im Process Mining liegt darin, dass der Aufwand zur Datenanbindung und -modellierung nur einmal erbracht werden muss. Aufwendige manuelle Prozessanalysen sind in der Folge nicht mehr notwendig (die im Übrigen oft auch nur Momentaufnahmen liefern). Als künftige Möglichkeiten ergeben sich Themen wie Simulation oder proaktives Prozess-Monitoring: Hier geht es nicht mehr darum, auf Basis von Vergangenheitswerten zu erkennen, was falsch gelaufen ist, sondern Störgrößen und Optimierungsmöglichkeiten im laufenden Prozess zu identifizieren.
Der Autor: Dr. Martin Seidel verantwortet seit 2014 die Zentralabteilung Business Efficiency der BSH Hausgeräte GmbH. Das globale Competence Center ist Accelerator für Prozesseffizienz indirekter Bereiche. Dabei spielt Process Mining eine wichtige Rolle. Das Team besteht aus Experten, die den globalen Rollout begleiten und die Brücke schlagen zwischen IT und Business.