Nutzbarmachung von Prozessdaten: Fragmentierte Prozessdaten in Wettbewerbsvorteile umwandeln
Die Menge an Daten, die in industriellen Prozessen gesammelt werden, steigt mit zunehmender Geschwindigkeit. Moderne Computersysteme ermöglichen die Speicherung von Daten über lange Zeiträume und mit einer viel schnelleren Abtastrate als je zuvor. Dies wirft eine wichtige Frage auf: Was machen wir mit all diesen Daten?
BtoC-Unternehmen sammeln und analysieren bereits seit einigen Jahren erfolgreich große und komplexe Kundentransaktionsdaten. Dieser “Big-Data-Ansatz” soll ihnen einen Wettbewerbsvorteil gegenüber ihren Konkurrenten verschaffen. Industrielle BtoB-Unternehmen sind noch nicht auf dem gleichen Stand, aber der immer stärker werdende Wettbewerb zwingt sie zur Feinabstimmung ihrer Produktionsprozesse. Die Unternehmen sind gezwungen, bessere Qualität in größeren Mengen zu produzieren und gleichzeitig den Energieverbrauch und die Rohstoffkosten zu senken.
Diese Probleme können gelöst werden, indem den Mitarbeitern die Möglichkeit gegeben wird, die Fertigungsprozesse auf der Grundlage von gemessenen Zeitreihendaten zu verbessern.
Durch den Einsatz effizienter Datenverarbeitungsmethoden und -werkzeuge können Industrieunternehmen das ungenutzte Potenzial ihrer vorhandenen Daten freilegen, was zu einer verbesserten Prozessdiagnose und einem Wettbewerbsvorteil führt.
Herausforderungen bei der Nutzung von fragmentierten Daten
In den letzten zehn Jahren sind digitale Informations-, Prozesssteuerungs- und Geschäftsabwicklungssysteme zu Standardanwendungen in der Zellstoff- und Papierindustrie geworden. Gleichzeitig ist die Menge der gesammelten und gespeicherten Daten erheblich gestiegen, und dieser Trend wird sich auch in Zukunft fortsetzen.
Die in den Fabriken eingesetzten Systeme konzentrieren sich in der Regel entweder auf einen begrenzten Prozessbereich (z. B. Rohstoffhandling, Stoffaufbereitung, Rollenbereich) oder auf einen begrenzten Datentyp (z. B. Regelkreisdaten, Prozessdaten, Qualitätsdaten und Kostendaten).
Heute werden riesige Datenmengen gesammelt, aber nur ein kleiner Teil davon wird genutzt. Eine Produktionsanlage oder ein ganzes Unternehmen würde enorme Vorteile erzielen, wenn alle diese Daten nahtlos zusammengeführt würden und die Mitarbeiter einen Gesamtüberblick über den Prozess erhielten.
Kombination von Fachwissen und effizientem Datenmanagement
Die gesammelten Datenmengen enthalten viel ungenutztes Geschäfts- und Prozessverbesserungspotenzial. Um dieses Potenzial auszuschöpfen, ist ein effizientes Datenmanagementsystem erforderlich.
Ein effizientes Datenmanagementsystem ermöglicht die Zusammenführung aller Datenquellen in einem System. Eine benutzerfreundliche Oberfläche unterstützt den Anwender dabei, nützliche Informationen und Erkenntnisse aus den riesigen Datenmengen zu gewinnen. Der Benutzer sollte nicht viel Zeit damit verbringen müssen, Daten in das Datenverarbeitungssystem einzugeben; stattdessen sollte er sich darauf konzentrieren, das Problem zu beheben, die Effizienz zu steigern oder die Qualität des Endprodukts zu verbessern.
Die Beziehungen zwischen den Prozessphänomenen sind sehr kompliziert, und mehrere Messungen beeinflussen sich gegenseitig. Daher besteht oft die Notwendigkeit, ursprüngliche Messungen zu neuen und nützlicheren Messungen zu kombinieren, z. B. zur Berechnung des Trockenstoffflusses auf der Grundlage von ursprünglichen Fluss- und Konsistenzmessungen. Um diese Art der freien Datenänderung zu ermöglichen, muss es eine einfache Möglichkeit geben, eigene Berechnungen in das Datenverarbeitungssystem einzufügen.
Prozess der Datenanalyse: Ein systemgesteuerter Workflow oder ein menschengesteuerter Mindflow?
Die Prozessanalyse kann begonnen werden, wenn alle relevanten Daten im Datenverarbeitungssystem verfügbar sind. Abbildung 1 veranschaulicht den vereinfachten Arbeitsablauf der Prozessdatenanalyse oder der Fehlersuche.
Der erste Schritt besteht darin, das Ziel zu definieren: Was wollen wir herausfinden?
Der nächste Schritt besteht darin, einen funktionierenden Satz von Messungen zu erstellen. Zu diesem Zeitpunkt ist es wichtig, Daten aus verschiedenen Quellen in einem System zu kombinieren. Die Datenverbindung sollte online sein, um mühsame und langsame Datenimporte in das Analysesystem zu vermeiden. Die Daten sollten außerdem nahezu in Echtzeit vorliegen, um schnell auf auftretende Situationen reagieren zu können.
Prozessdaten enthalten immer einige schlechte Werte, z. B. große Ausreißerwerte, fehlerhafte Werte und stillgelegte Datenwerte. Diese Art von schlechten Daten beeinträchtigt die Analyseergebnisse erheblich, und deshalb müssen diese Werte vor der Analyse entfernt werden. Um diese Art der Datenbereinigung effizient durchführen zu können, sollte das Tool das Prozesswissen des Benutzers unterstützen. Ein erfahrener Mitarbeiter mit Prozesskenntnissen kann am besten beurteilen, welche Werte irrelevant sind, und diese Werte sollten dann leicht aus dem Datensatz entfernt werden können.
Wenn die Daten bereinigt sind, kann der Benutzer Prozessanalysen durchführen, z. B. Statistiken und Korrelationsberechnungen. In diesem Schritt findet der Benutzer in der Regel bereits einige nützliche Informationen aus den Daten, aber bei einer großen Anzahl von Messungen kann dies sehr mühsam sein. Mit Hilfe von Computern lässt sich dieser Schritt wesentlich effizienter gestalten. Ein Computer kann schnell viele Prozess- und Qualitätsmessungen überprüfen, um festzustellen, welche am besten mit dem gesetzten Ziel korrelieren. Das System sollte in der Lage sein, die Messungen in eine Rangfolge zu bringen und eine Kandidatenliste der Messungen zu erstellen, die den größten Einfluss auf die Zielmessung zu haben scheinen. In diesem Schritt werden die Daten in Informationen umgewandelt.
Es ist wichtig, daran zu denken, dass der Benutzer über gute Prozesskenntnisse verfügen muss, um nützliche Studienergebnisse zu erhalten und zuverlässige Schlussfolgerungen zu ziehen. In diesem Schritt werden die Informationen in neues Wissen umgewandelt. Bei Bedarf kann der Benutzer die Aufgabe neu definieren und die Schleife erneut beginnen.
Im wirklichen Leben ist ein guter und effizienter Datenanalyse-Workflow nicht linear und einfach wie oben beschrieben; er sieht eher aus wie ein Spaghetti-Ball.
Neue Informationen und Erkenntnisse ergeben sich unweigerlich, wenn Daten durch kreative Bereinigungs-, Verfeinerungs-, Berechnungs- und Analysemethoden verarbeitet werden. Dies bringt die Datenanalyse voran. Oft führen diese neuen Erkenntnisse zu einer Neudefinition der ursprünglichen Fragestellung.
In einem effizienten Datenanalyse-Workflow werden in allen Schritten neue Erkenntnisse gewonnen. Datenanalysesysteme sollten diesen agilen und kreativen Arbeitsstil unterstützen. Die Benutzer müssen in der Lage sein, den Datensatz zu ändern, verschiedene Datenbereinigungsszenarien auszuprobieren und verschiedene Analysemethoden flexibel anzuwenden.
Bessere Nutzung von Daten zur Bewältigung der Herausforderungen in den Bereichen Produktivität und Nachhaltigkeit
Während die Datenmenge immer schneller zunimmt, werden die Ressourcen in den Fabriken immer knapper. Der Wettbewerb zwischen Unternehmen und Fabriken ist hart, und die Situation wird in Zukunft nicht einfacher werden. Darüber hinaus wird es immer wichtiger, die natürlichen Ressourcen zu schonen.
Dies zwingt die Unternehmen dazu, ihre Prozesse effizienter und nachhaltiger zu gestalten. Eine der kosteneffizientesten Möglichkeiten, diese Ziele zu erreichen, ist die effizientere Nutzung vorhandener Daten.
Heutzutage müssen die Mitarbeiter in den Fabriken viele verschiedene Aufgaben gleichzeitig erledigen. Das bedeutet, dass sie nicht viel Zeit für das Datenmanagement aufwenden können. Es wird ein effizientes und intuitives Werkzeug benötigt, das alle relevanten Daten in einer Ansicht zusammenfasst. Der Benutzer mit guten Prozesskenntnissen muss in der Lage sein, vom System schnell und einfach Antworten auf Fragen zu Prozessproblemen zu erhalten.
Wollen Sie mehr Wissen?
Unser Verkaufsteam und Datenanalyse-Experten werden Ihnen gerne weiterhelfen. Erfahren Sie mehr über das industrielle Datenanalysewerkzeug Wedge.