Process Mining im Reality Check

Einsparungen in Millionenhöhe, dutzende neue Anbieter stürmen den Markt, einer der Pioniere erlangt eine Bewertung von über einer Milliarde US-Dollar: Process Mining wird immer mehr zu einem lukrativen Geschäft für Anbieter, Dienstleister und nicht zuletzt für Unternehmen, die Process Mining einsetzen. Doch um sich in einem solch dynamischen Marktumfeld ein möglichst neutrales und unvoreingenommenes Bild machen zu können, sind Erfahrungsberichte von unschätzbarem Wert: Ein Reality Check hilft, wichtige Fragen zu stellen und letztlich fundierte Entscheidungen über eine zukünftige Nutzung zu treffen.

Process Mining im Kontext aktuell vorherrschender Anwendungsfälle in der Industrie wird als eine Kombination von technischer Prozessdatenanalyse, Dashboard Design und betriebswirtschaftlicher Analyse inklusive Ableitung von Maßnahmen verstanden. Im Vergleich zu akademischen Abgrenzungen ist dieses Verständnis zwar deutlich weiter gefasst, nutzt zumeist allerdings nur einen sehr kleinen Teil der bisher erforschten Algorithmik. Im Kontrast zu bereits länger etablierten Analysedisziplinen, wie beispielsweise Business Intelligence, hebt sich Process Mining durch den konsequenten Fokus auf die Analyse von Ereignissen und Aktivitäten innerhalb der Ausführung von Prozessen ab.

Im Rahmen dieser Beitragsreihe soll Process Mining nun einem aktuellen Reality Check unterzogen werden, in dem sowohl die Praxis als auch die akademische Sicht beleuchtet werden. Zugrunde gelegt wird hierbei ein Referenzmodell, das als Industriestandard für Process-Mining-Anwender, Entwickler, Softwareanbieter wie auch Akademiker eine gemeinsame Basis inklusive Terminologie schafft. Der Fokus dieser Strukturierung liegt auf real etablierten Nutzungsszenarien verschiedenster Industrien.

Aus der Begleitung einer Vielzahl von Process-Mining-Initiativen lassen sich vier grundlegende Schaffensbereiche identifizieren: die Datenbereitstellung, die Datennormierung, die Prozessmodellierung sowie die Prozessvisualisierung und -analyse. Jeder dieser Bereiche birgt eigene Herausforderungen, die zukunftsgerichtet mittels klar definierter Schnittstellen abgrenzbar werden und somit eine Modularisierung der Process-Mining-Analysekette ermöglichen. Neben Flexibilität schafft dies auch die nötige Stabilität und Investitionssicherheit für die flächendeckende Etablierung und effiziente Nutzung von Process Mining als integralem Bestandteil von Unternehmen.

Datenbereitstellung (Smart Data Discovery)

Grundvoraussetzung für die Analyse von Prozessen ist die Verfügbarkeit der Prozessspuren in Form von Daten. Im ersten Schritt werden relevante Datensätze unabhängig des Quellsystems identifiziert und grundlegend interpretiert. Im zweiten Schritt können diese aus einem oder mehreren Quellsystemen in die Analyseumgebung transferiert werden (im Allgemeinen wird die Prozessanalyse nicht innerhalb des Quellsystems durchgeführt). Während für den zweiten Schritt – die Datenextraktion, der Transfer sowie die wiederkehrende Replikation – bereits mannigfaltige Lösungen und Systeme am Markt verfügbar und in verwandten Disziplinen erprobt sind, stellt der erste Schritt eine nicht triviale Herausforderung dar.

Heutigen Geschäftsprozessen liegt eine Vielzahl teils proprietärer Systeme zugrunde, was eine strukturierte und effiziente Identifikation aller relevanten Daten fast unmöglich scheinen lässt. Während im Kontext von SAP-Standardprozessen die Identifikation und Interpretation relevanter Daten noch zu bewerkstelligen ist und Experten am Markt verfügbar sind, endet eine solche Initiative bei proprietären Systemen, Nischensoftware oder auch stark veränderter Standardsoftware oft in einem aufwändigen und manuellen Reverse-Engineering.

Das Deloitte Center of Process Bionics arbeitet in Kooperation mit führenden Forschungseinrichtungen und Technologieanbietern an intelligenten Methoden, automatisiert relevante Datensätze mittels der Nutzung von KI-Ansätzen zu identifizieren und zu interpretieren. Diese Vorgehen umfassen als „Smart Data Discovery“ nicht nur eine Entitätserkennung (z.B. einer Bestellung) und Relationserkennung (z.B. einer Verbindung zwischen Bestellung und Rechnung), sondern auch eine Aktivitäts- bzw. Eventerkennung (z.B. einer Zahlfristenänderung in der Rechnung).

Datennormierung (Process Meta Model)

Ist die Verfügbarkeit der relevanten Datensätze gegeben, werden im Prozess und damit in den Daten befindliche Entitäten und Objekte (zum Beispiel eine Rechnung) über Systemgrenzen hinweg identifizierbar gemacht. Solch globale, eineindeutige Merkmale sind nötig, um bei systemübergreifenden Prozessmodellen, die sich aus mehreren Quellen speisen, Überschneidungen und damit einhergehende Konflikte in der Verarbeitung und späteren Analyse zu verhindern.

Eine der großen Herausforderungen entsteht durch die Abbildung gleicher bzw. ähnlicher Sachverhalte in unterschiedlichen Systemen. Um für die spätere Analyse eine möglichst nutzenstiftende Basis zu schaffen, müssen die Daten abstrahiert und auf einer homogenisierten Metaebene vergleichbar gemacht werden. Beispielsweise kann ein Bestellprozess im selben Unternehmen sowohl in SAP ECC als auch in Oracle EBS abgebildet sein. Um nun möglichst aussagekräftig zu analysieren, müssen Bestellungen aus SAP und aus Oracle zu weiten Teilen gleichbehandelt werden. Dies trifft natürlich auf alle weiteren Entitäten und Objekte gleichermaßen zu, während die Referenz zum jeweiligen Quellsystem erhalten bleibt. Die Realisierung einer allumfassende Metaebene stellt jedoch ein langwieriges und im speziellen aufwändiges Unterfangen dar.

Deloitte begegnet dieser Herausforderung mit dem Einsatz eines Process Mining Frameworks – einer modularen Plattform, welche sowohl die eineindeutige Identifikation als auch die Abstrahierung auf eine Metaebene („Process Meta Model“) unterstützt und viele, bereits erprobte Mechanismen in einem Baukastenprinzip vorhält. Als integraler Bestandteil wird eine prozess- und systemübergreifende Nomenklatur sukzessive etabliert, sodass neue Process-Mining-Modelle schneller und stabiler integriert werden können und die Überführung der Analytik in den fortlaufenden Betrieb erleichtert wird.

Prozessmodellierung (Digital Process Twin)

Aus einer auf Metaebene abstrahierten Datenbasis werden die Prozesse modelliert. Dies umfasst die Modellierung von Events (z.B. Bestellung versandt), die Transformation von relevanten Attributen (z.B. Lieferland Italien), sowie die Identifikation der führenden Prozessanker (z.B. eine Bestellposition).

In der Praxis zeigen sich immer wieder Anwendungsfälle, in denen eine sehr große Anzahl (mehr als 500) unterschiedlicher Events abgebildet werden soll. Hierbei handelt es sich oft um Events mit dynamischen Titeln (zum Beispiel Maschinenrückmeldungen inklusive Arbeitsplatzkürzel). Diese können zwar ebenfalls dynamisch modelliert werden, sodass hierbei kein großer Zusatzaufwand entsteht, deren konkreter Nutzen im Sinne optimierender Analysen bleibt angesichts der zusätzlichen Komplexität jedoch oft fraglich.

Eine der größten Herausforderungen in der Prozessmodellierung ist die Auswahl des Prozessankers. Da für jeden Anker im Modell eine Prozessinstanz inklusive aller zugehörigen Events und Attribute generiert wird, beeinflusst diese Wahl maßgeblich die resultierende Visualisierung des Prozessflusses. Beispielsweise werden bei Bestellpositionen als Prozessanker per Definition Rechnungen ohne Bestellbezug genauso ignoriert wie Bestellanforderungen ohne zugehörige Bestellung. Um den Prozessanker korrekt zu wählen, sollten die Anforderungen der abgeleiteten Analysen bereits zur Prozessmodellierung vorliegen.

Durch ein Process Mining Framework können mehrere Prozessanker definiert werden und somit die Flexibilität und Vollständigkeit der Prozessmodelle („Digital Process Twin“) gewahrt bleiben. Auch Spezialanforderungen wie die Homogenisierung verschiedener Zeitzonen innerhalb von Prozessen oder eine umfassende Umrechnung aller monetären Größen in eine Konzernwährung sind nativ integriert. Darüber hinaus fördert das Baukastensystem die Ansammlung konfigurierbarer Bausteine, um sukzessive und mit jedem Projekt schneller zu werden.

Prozessvisualisierung und -analyse (Process Performance Cockpit)

Die entstandenen Prozessmodelle können mit einer Vielzahl von Process-Mining-Applikationen verbunden und deren Daten in Analyse-Dashboards verarbeitet werden. Anwendungsfälle reichen von der klassischen Einsparung von Arbeitsmitteln und -zeit, über die Verkürzung von Wartezeiten, die Reduktion von Ausschuss und Nacharbeit, die Verringerung gebundenen Kapitals, die Identifikation und Vorbeugung von Compliance-Verstößen, die Harmonisierung und Simplifizierung von Prozessabläufen bis hin zum fortlaufenden Prozess-Reporting. Typischerweise wird zwischen explorativen und hypothesenbasierten Dashboards unterschieden.

Die Visualisierung sowie die Auswahl und Form der dargestellten Informationen werden nicht immer an den zugrundeliegenden Hypothesen und dem Anwendungsfall ausgerichtet. Die Vielfältigkeit der Komponenten verleitet oft zur Überfrachtung von Dashboards, sodass sich kein roter Faden mehr erkennen lässt und entsprechend die Analyse und Ableitung von Maßnahmen erschwert wird.

Um sicherzustellen, dass die erstellten Analysen effektiv zu quantifizierbaren und umsetzbaren Maßnahmen führen, bedient sich das Deloitte Center of Process Bionics zweier Leitsätze. Sogenannte Treiberbäume verbinden alle Analysen mit jeweils logisch korrespondierenden betriebswirtschaftlichen Leistungskennzahlen (zum Beispiel Working Capital). Dieses Vorgehen unterstützt bei der Quantifizierung antizipierter Auswirkungen und zeigt zudem Bereiche auf, in denen Process-Mining-Analysen bisher keinen Mehrwert gezeigt haben. Darüber hinaus werden Anwendungsfälle von einer Vielzahl von Prozessexperten innerhalb des globalen Deloitte-Netzwerks gesammelt, in Analyse-Dashboards aufbereitet und über eine interne Plattform zur Verfügung gestellt. Hieraus entsteht nach und nach ein umfassendes „Process Performance Cockpit“.

Beitragsreihe Process Mining

Um das Potenzial von Process Mining bestmöglich auszuschöpfen, bedarf es neben dem Referenzmodel auch einer Anpassung des Managementmodells. Die über die letzten Jahrzehnte aufgebauten organisatorischen Einheiten, Metriken und Kommunikationsabläufe können mit der neu erlangten, übergreifenden Prozesstransparenz in Frage gestellt und zielgerichtet angepasst werden. Das Arbeiten in Organisationsilos wird durch Process Mining obsolet.

Entlang der dargelegten Grundpfeiler wird Process Mining in den folgenden Beiträgen als Methodik und Technologie aus verschiedenen Perspektiven beleuchtet. Während die RWTH Aachen sowie das Hasso-Plattner-Institut  das Thema akademisch beleuchten, vermitteln Vertreter von BSH Hausgeräte, von Siemens, BMW und innogy Erfahrungen aus dem großflächigen Einsatz von Process Mining.

Die Autoren:

Julian Lebherz ist Co-Founder sowie Lead Data Scientist des Deloitte Center of Process Bionics und berät Unternehmen bei der effizienten und effektiven Nutzung von Process Mining zur Optimierung des Geschäftsbetriebs. Er hat das Deloitte Process Mining Framework konzipiert und wird mit sieben Jahren Erfahrung im großflächigen Einsatz von Process Mining als einer der weltweit führenden Experten gehandelt.

Olly Salzmann ist Partner bei Deloitte und leitet das Center of Process Bionics. Er verfügt über 13 Jahre Berufserfahrung in den Bereichen Process Mining, Applied Data Analytics, eDiscovery, IT-Audit und Datenschutz. In seiner beruflichen Laufbahn hat Herr Salzmann zahlreiche globale Analytics-Projekte bei großen Industrieunternehmen durchgeführt und bei der Erstellung von Big Data Use Cases sowie bei der digitalen Transformation von Geschäftsprozessen beraten.