Künstliche Intelligenz (KI) und Machine Learning gehören zu den unabdingbaren Bausteinen einer neuen Qualitätsinitiative – Qualität 4.0. Doch dafür ist es notwendig, die richtigen Daten zu erheben. Und hier gibt es noch viel zu tun, wie Erfahrungen aus der Prozessindustrie zeigen.
Vor dem Hintergrund strengerer ökonomischer und ökologischer Anforderungen, einer wachsenden Prozesskomplexität sowie der zunehmenden Wettbewerbsintensität sehen sich Unternehmen zu fortlaufender Innovation und Optimierung verpflichtet. Eine kontinuierlich steigende Zahl von Sensoren und das damit einhergehende, immer detailliertere Abbild der Produktionsprozesse bilden die notwendige Basis, dieser Verpflichtung auch gerecht zu werden.
Im Zusammenspiel mit Verfahren aus den Bereichen KI und Machine Learning lassen sich Prozesse auf Basis der vorhandenen Prozessdaten analysieren, modellieren und mittels dieser Modelle (Digital Twin) auch optimieren. Unabhängig davon, ob das Ziel der jeweiligen Optimierung die Behebung von Prozessproblemen, eine generelle Qualitätserhöhung oder die Verringerung des Mitteleinsatzes bei gleichbleibender Qualität ist – Qualitätsdaten fungieren bei der zugrundeliegenden Modellierung vielfach als wesentliche Zielgröße.
Der Erfolg all dieser Untersuchungen steht und fällt jedoch mit dem Umfang und der Relevanz der für die Analysen verfügbaren Daten. Die Frage nach einer geeigneten Datenerhebung soll im Folgenden anhand einiger Beispiele aus der industriellen Praxis beleuchtet werden.
Mehr Daten wagen
Bisher werden Daten vielfach nach funktionaler oder räumlicher Nähe zusammengefasst und im Wesentlichen separat voneinander betrachtet, gespeichert und genutzt – Maschinendaten für die Maschinenwartung, Prozessdaten zum Abgleich des laufenden Prozesses mit den Vorgaben und Qualitätsdaten zur Beurteilung und Dokumentation der Produktqualität gegenüber dem Kunden. Daten unterschiedlicher Prozessschritte werden bisweilen von unterschiedlichen Abteilungen verwaltet – und im Fehlerfall wird der jeweilige Experte befragt.
Was aber, wenn eine Auffälligkeit in den Maschinendaten, die sich in den Prozessdaten zunächst noch nicht äußert, zu Problemen in der Produktqualität führt? Oder wenn Variationen in einem Vorprodukt zur Fehlerquelle für einen späteren Prozessschritt werden? Schon diese Beispiele machen deutlich, wie wichtig die übergreifende Analyse und Optimierung des Prozesses auf Basis aller verfügbaren Daten ist.
Was in der Vergangenheit aufgrund limitierter datentechnischer Ressourcen schwer
denkbar war: Die heutige skalierbare Rechenleistung und die Verfügbarkeit leistungsfähiger Algorithmen bieten die notwendige Basis für einen aus Datensicht globalen Ansatz. Sind die Daten einmal zusammengeführt, ist das Problem heute nicht mehr die technische Beherrschbarkeit der dabei entstehenden Datenmenge. Zur Herausforderung werden jetzt vielmehr die mit dieser Vielfalt automatisch einhergehenden Scheinkorrelationen oder Scheinkausalitäten, zufällig auftretende Zusammenhänge, die keinerlei Praxisrelevanz aufweisen.
Um aus der Vielfalt der entdeckten Zusammenhänge die wesentlichen Erkenntnisse herauszufiltern, gilt es, ein effizientes Zusammenspiel zwischen Algorithmen und Prozessexperten zu orchestrieren. Dieses Zusammenspiel, das von spezialisierten Analyseplattformen direkt unterstützt wird, ist eine wesentliche Voraussetzung für optimale Ergebnisse in der Prozessanalyse und Prozessoptimierung.
Im Fehler verbirgt sich die Innovation
Ein häufig unterschätzter Punkt in Bezug auf die Erfassung und Ablage von Prozessdaten ist der Umgang mit den Daten fehlerhafter Versuche und Produkte. Einzelne Experimente werden nur rudimentär dokumentiert, da sie „überhaupt nichts gebracht hätten“. Unterschiedliche Fehlerkategorien (Riss, Unebenheit, Verfärbung) werden einfach zusammengefasst und die sporadisch auftretenden Fehler in einem komplexen Produktionsprozess werden manuell und mit minimaler Information dokumentiert. Dieses Verhalten lässt eine große Menge wertvoller Informationen ungenutzt. So nachvollziehbar diese Praxis beim Auftreten akuter Störungen auch sein mag, als Basis für zukünftige, zunehmend datenbasierte Verfahren erweist sie sich als fatal.
Fehler treten zumeist selten auf und sind von höherer Variabilität als der normale, fehlerfreie Prozessablauf. Um es dem Algorithmus zu ermöglichen, datenbasiert den Unterschied zwischen dem fehlerbehafteten und dem fehlerfreien Prozessverhalten zu identifizieren, muss es daher darum gehen, jeden Fehler so sorgsam wie möglich zu dokumentieren. Rauschen in der datenbasierten Beschreibung des Normalverhaltens kann seitens des Algorithmus quasi per Mittelung über viele Datenpunkte unterdrückt werden. Für die fehlerbehafteten
Beispiele jedoch gelingt dies, aufgrund ihrer geringeren Anzahl, in der Regel nicht. Jede verfügbare Information muss daher umfassend datenmäßig dokumentiert werden, so dass diese später einmal zur wesentlichen Grundlage von Prozessverbesserungen und Prozessinnovationen werden kann. Auch hier können spezialisierte Plattformen dabei unterstützen, Daten geeignet zu dokumentieren und mögliche Versäumnisse, bzw. zusätzliche Chancen, frühzeitig zu erkennen.
Diese Beispiele aus der erlebten Praxis zeigen, dass die Vorteile von Qualität 4.0 nur dann erreichbar sind, wenn Daten in umfassender Weise zusammengeführt und mit gleichzeitig algorithmischem und Expertenwissen ausgewertet werden. Dabei ist die Nutzung einer spezialisierten Analyseplattform unerlässlich.
Nur ein effizientes Zusammenspiel aus Daten, Algorithmen und Experten wird das wesentliche Fundament künftiger Qualitätsinitiativen bilden. Und auch nur, wenn die richtigen Daten in geeigneter Weise erhoben und vorgehalten werden.
Der Autor: Dr. Fabian Evert, Managing Partner der Qlaym GmbH, einem Technologieunternehmen im Feld Künstliche Intelligenz/Machine Learning mit Sitz in Düsseldorf. Seine langjährige Tätigkeit in Forschung, Entwicklung und Innovationsmanagement umfasst Stationen in einem KI-Startup, im technischen Consulting sowie im Forschungs- und Entwicklungsbereich der BMW Group. Mit der Analyseplattform „Qoactive®“ bietet die Qlaym GmbH ein leistungsfähiges Werkzeug für die kontinuierliche, effiziente Nutzung industrieller Prozessdaten. Das Anwendungsspektrum reicht von der Visualisierung, Analyse und modellbasierten Optimierung über das kontinuierliche Monitoring bis hin zu Anomalieerkennung und vorausschauender Wartung.