Nachrichten

SharpCell erweitert den Einsatz von Wedge auf das neue Werk in Tervasaari

SharpCell selects Wedge to ensure consistent quality

SharpCell, ein führender Airlaid-Hersteller mit Sitz in Finnland, wird seine Produktionskapazitäten durch die Integration des Prozessdatenanalysesystems Wedge in sein neues Werk in Tervasaari erweitern. Dieser strategische Schritt stellt sicher, dass die Leistungsfähigkeit von Wedge vom ersten Produktionstag an voll ausgeschöpft wird, und unterstreicht das Engagement von SharpCell für gleichbleibende Qualität und effiziente Prozesse.

Das neue Werk in Tervasaari wird von den fortschrittlichen Datenanalysefunktionen von Wedge profitieren, die es SharpCell ermöglichen, Prozessdaten schnell und effektiv zu nutzen. Diese Integration unterstützt die Unternehmensziele von null Abfall, null Emissionen und optimaler Ressourcennutzung, im Einklang mit der Vision, ein Qualitätsführer im Airlaid-Segment zu sein.

Durch die Ausweitung des Einsatzes von Wedge demonstriert SharpCell weiterhin sein Engagement für Innovation und Exzellenz bei der Herstellung von Airlaid-Produkten für verschiedene Anwendungen, darunter Hygiene, Körperpflege und Haushaltsreinigung.

Jenseits des Diagramms: Warum Datenanalyse Personalisierung erfordert

The best data analytics tools combine automation and customization capabilities

Herkömmliche Datensysteme sind für automatisierte Analysen, vordefinierte Arbeitsabläufe und Diagramme für die routinemäßige Überwachung und Berichterstellung ausgelegt. Sie sind gut, reichen jedoch für die Fehlerbehebung in der Praxis nicht aus, da diese komplex und nicht linear ist.

Wenn ein Prozessingenieur mit neuen Phänomenen oder unerwarteten Problemen konfrontiert wird, ist eine Ad-hoc-Datenanalyse erforderlich. Diese explorative Arbeit folgt selten einer strengen, systemgesteuerten Abfolge, sondern verläuft in undefinierten Untersuchungsschritten, sodass Analysten ihren Ansatz anpassen müssen, während sich die Erkenntnisse ständig weiterentwickeln.

Damit diese unverzichtbare, kreative Problemlösung gedeihen kann, muss die Datenanalyseplattform einzelne Benutzer in die Lage versetzen, ihre Umgebung für bestimmte Aufgaben einfach und intuitiv zu erstellen und anzupassen. 

Anpassung: Der Schlüssel zu agiler Problemlösung und Prozessoptimierung

Ein hochwirksames Datenanalyse-Tool muss dem “Mindflow” des Benutzers dienen und ihn nicht zwingen, sich an einen starren theoretischen Arbeitsablauf zu halten. Diese Flexibilität wird durch umfassende Personalisierungsfähigkeiten realisiert:

  1. Anpassung im Handumdrehen: Die Fähigkeit, eigene Arbeitsbereiche zu definieren, das Layout anzupassen und Visualisierungsoptionen über intuitive Drag-and-Drop-Funktionen auszuwählen, ist entscheidend. Dadurch können Prozessexperten Diagramme anpassen und in Sekundenschnelle Ad-hoc-Dashboard erstellen, um ein bestimmtes Problem in einen Kontext zu setzen.
  2. Intuitive Datenverfeinerung: Rohdaten bieten selten sofort zuverlässige Analyseergebnisse. Fachwissen ist erforderlich, um zu beurteilen, welche Werte irrelevant sind, und es werden Tools benötigt, die sofortige Datenbereinigung, Filterung und Verfeinerung unterstützen. Dazu gehört die entscheidende Fähigkeit, komplexe Prozessverzögerungen (Lags) zu kompensieren, um zuverlässige Korrelationsbefunde zu gewährleisten.
  3. Ad-hoc-Berechnungsmodul: Um wirklich nützliche Messungen abzuleiten, müssen Benutzer häufig Informationen aus mehreren Quellen kombinieren, Einheiten umrechnen oder neue berechnete Messungen (Soft-Sensoren) erstellen. Systeme müssen über ein integriertes Berechnungsmodul verfügen, das es Benutzern ermöglicht, diese benutzerdefinierten Messungen in Dashboards und Analysen einfach zu erstellen und zu nutzen, als wären sie echte physische Messungen.
  4. Zugängliche Kausalanalyse: Das Verständnis des “Warum” ist das ultimative Ziel. Das System muss Benutzer befähigen, fortschrittliche Analysemethoden intuitiv anzuwenden, um verborgene Ursache-Wirkungs-Beziehungen aufzudecken. Diese Funktionalität muss intuitiv sein, damit Prozessexperten die Quelle von Anomalien diagnostizieren können, ohne dass ein Eingreifen der Datenwissenschaft erforderlich ist.

Die besten Datenanalyse-Tools kombinieren Automatisierungs- und Anpassungsfähigkeiten

Für eine effektive Datenanalyse und -nutzung ermöglichen die besten Datenanalyse Systeme sowohl automatisierte Analysen als auch flexible Anpassungen.

Standardansichten und automatisierte Berichte erfüllen das Bedürfnis nach Konsistenz und Wissensverbreitung, sind jedoch unzureichend für die agilen, spontanen Anforderungen der modernen Problemlösung und Prozessoptimierung.

Wettbewerbsvorteile erzielen Unternehmen,  die Systeme einsetzen, die es Benutzern ermöglichen, Datensätze, Ansichten und Analyseparameter nahtlos zu ändern, um sicherzustellen, dass das System stets genau auf die jeweilige Aufgabe abgestimmt ist – egal wie neuartig diese auch sein mag – die der Benutzer zu lösen versucht.

 


Wollen Sie mehr Wissen?

Unser Verkaufsteam und Datenanalyse-Experten werden Ihnen gerne weiterhelfen. Erfahren Sie mehr über das industrielle Datenanalysewerkzeug Wedge.

Verbesserung der Papierqualität durch integrierte Datenanalyse

Producing consistent high-quality in paper manufacturing requires advanced data analysis and integrated data insights

In der hart umkämpften Papierindustrie ist gleichbleibend hohe Papierqualität nicht nur ein Ziel, sondern die Grundlage für Rentabilität und Kundenzufriedenheit. Traditionelle Methoden zur Überwachung der Papierqualität reichen jedoch oft nicht aus, wodurch wertvolle Erkenntnisse ungenutzt bleiben und Zeit und Geld verloren gehen.  In diesem Artikel wird erläutert, wie die Integration von Cross Direction (CD) Profilmessungen mit Prozessdaten diese Herausforderungen überwunden werden können, um einen intelligenteren Ansatz für die Papierherstellung zu bieten.

Warum traditionelle Methoden nicht ausreichen

Seit Jahrzehnten wird die Papierqualität mit visuellen 2D-Profilkarten überwacht. Diese Karten sind zwar effektiv, um größere Mängel zu identifizieren, können jedoch keine tiefergehenden, detaillierten Informationen liefern, die für das Verständnis von Qualitätsabweichungen entscheidend sind. Die Unmöglichkeit, diese visuellen Karten mit Prozessmessungen zu verknüpfen, schafft einen kritischen blinden Fleck, der es schwierig macht, die Ursache für Störungen der Papierqualität zu lokalisieren. Um Qualität wirklich zu beherrschen, sind robuste Methoden erforderlich, um umfangreiche historische Daten zu verwalten und die Auswirkungen von Änderungen der Prozessvariablen auf die Profilstabilität zu verstehen.

Entschlüsselung von Profilabweichungen

Keine zwei Papierprofile sind völlig identisch. Obwohl ein idealer Scan perfekt einheitliche Werte zeigen würde, führt die reale Produktion immer zu gewissen Abweichungen. Das Ziel ist nicht eine Abweichung von Null, sondern Werte, die normalerweise um einen festgelegten Punkt mit minimaler Streuung verteilt sind.  Es ist von größter Bedeutung, Abweichungen von diesem optimalen Zustand schnell zu erkennen. 

Profiländerungen lassen sich im Wesentlichen in zwei Kategorien einteilen:

  • Änderungen in der Form der Scanvektoren: Diese reichen von einfachen Neigungen bis hin zu komplexen U-Formen, S-Formen oder W-Formen.
  • Änderungen der statistischen Verteilung von Scanwerte: Analysieren Sie Eigenschaften wie Mittelwert, Abweichung, Verteilungssymmetrie (Schiefe) und die Gesamtverteilungsform (Kurtosis).

Durch die Kombination von Erkenntnissen aus Profilkarten mit Prozessdatendynamiken werden spezifische Profilvariationsindizes generiert – Metriken, die auf das Auftreten von Profilabweichungen hinweisen. Die Verfolgung dieser Indizes als Trends ermöglicht eine direkte Analyse neben anderen Prozessmessungen und verbessert so die Fähigkeit, die Ursachen für Profiländerungen zu identifizieren. Dieser Ansatz ermöglicht auch eine effiziente Untersuchung langfristiger Trends in der Gleichmäßigkeit der Papierprofile.

Vorstellung des Wedge-Vorteils

Das Wedge-System von Trimble bietet eine transformative Lösung, indem es komplexe Profildaten mit derselben Intelligenz und Flexibilität wie jede andere Prozessmessung behandelt. Dieses fortschrittliche Datenanalysesystem ermöglicht Anwendern Folgendes:

  • Tiefgehende Analyse: Wählen Sie einen beliebigen Zeitrahmen für die Untersuchung aus, sei es ein einzelner Produktionslauf oder eine bestimmte Papiersorte über mehrere Monate hinweg. Filtern Sie Ausreißer heraus, um eine klare Analyse zu gewährleisten.
  • Abweichungen charakterisieren: Berechnen Sie eindeutige Indizes, die Probleme innerhalb von Profildaten genau charakterisieren und identifizieren, und verwandeln Sie visuelle Anomalien in umsetzbare Erkenntnisse.
  • Ursachen aufdecken: Vergleichen Sie Profilvariationsindizes mit Prozessmessungen, um schnell Prozessänderungen zu identifizieren, die Verschiebungen in den CD-Profilen auslösen, um so eine gleichbleibend einheitliche und hohe Papierqualität sicherzustellen.

Von der Überwachung zur Beherrschung

Das Wedge-System nutzt fortschrittliche Mustererkennung, um komplexe Profilformen wie beispielsweise ein W-förmiges Profil zu diagnostizieren. Es analysiert relevante Prozessmessungen, um Korrelationen zu identifizieren, die gleichzeitig mit oder vor der Profilabweichung auftraten und erstellt eine priorisierte Liste potenzieller Ursachen. Das Mustererkennungs-Tool kompensiert Prozessverzögerungen und stellt sicher, dass die Ursache korrekt identifiziert wird.

Diese integrierte Methodik verbessert erheblich die Fähigkeit, die Ursache von Papierprofilproblemen schnell zu identifizieren und stellt sicher, dass konsistente Produktion von einheitlichen, hochwertigen CD-Profilen erfolgt. Das Trimble Wedge-System zeichnet sich durch Zuverlässigkeit, Geschwindigkeit und Benutzerfreundlichkeit aus, optimiert den Diagnoseprozess, erhöht die Papierqualität und trägt zur betrieblichen Effizienz und nachhaltigen Rentabilität bei.

Erfahren Sie mehr

Wenn Sie daran interessiert sind, sich tiefer mit den innovativen Methoden zu befassen, die in diesem Artikel diskutiert werden, bietet Trimble ein detailliertes White Paper mit dem Titel “Improve Paper Quality by Combining Cross Direction (CD) Profile Measurements with Process Measurements.” Dieses Dokument bietet eine eingehende Untersuchung der Techniken und Vorteile der Integration von Profil- und Prozessdaten. Um Ihr Exemplar anzufordern und weitere Einblicke in die Optimierung der Papierproduktion zu erhalten, kontaktieren Sie bitte wedgesales@trimble.com.

Innovative Datenanalyse in der Papierindustrie: Ad-hoc-Erkenntnisse und automatisierte Konsistenz in Einklang bringen

Die Zellstoff- und Papierindustrie entwickelt sich ständig weiter, angetrieben durch die Notwendigkeit, Prozesse zu optimieren und hohe Qualitätsstandards aufrechtzuerhalten. Da traditionelle Methoden der Datenüberwachung Schwierigkeiten haben, mit diesen Anforderungen Schritt zu halten, entstehen innovative Ansätze der Datenanalyse als wichtige Werkzeuge. Dieser Artikel untersucht die Rollen der Ad-hoc- und automatisierten Datenanalyse und hebt ihre Beiträge zur Verbesserung der betrieblichen Effizienz und Entscheidungsfindung in diesem komplexen Sektor hervor.

Ad-hoc-Datenanalyse: Flexibilität und Erkundung

Die Ad-hoc-Datenanalyse zeichnet sich durch ihre Flexibilität und den untersuchenden Charakter aus. Sie ist besonders wertvoll, um neue und oft unvorhergesehene Fragen zu beantworten, Probleme zu beheben und neue Phänomene zu erforschen. Dieser Ansatz beinhaltet eine dynamische Untersuchung von Daten, die es Analysten ermöglicht, ihre Methoden auf der Grundlage sich entwickelnder Erkenntnisse und des jeweiligen Problems anzupassen.

Die Ad-hoc-Analyse ist iterativ und nicht-linear und erfordert oft mehrere Zyklen, in denen Aufgaben neu definiert, Messungen ausgewählt, Daten verfeinert und analysiert sowie Schlussfolgerungen gezogen werden. Diese Flexibilität macht sie ideal, um neue Erkenntnisse zu generieren und das Prozessverhalten dynamisch zu verstehen. Wenn beispielsweise in einer Papierfabrik ein plötzlicher Rückgang der Papierqualität auftritt, kann eine Ad-hoc-Analyse durchgeführt werden, um verschiedene Faktoren wie Rohstoffqualität, Maschineneinstellungen und Umgebungsbedingungen zu untersuchen. Durch iteratives Verfeinern ihrer Analyse können Analysten spezifische Probleme identifizieren und Korrekturmaßnahmen ergreifen.

Die iterative Natur der Ad-hoc-Analyse kann jedoch zeitaufwändig sein und erfordert qualifizierte Analysten und erhebliche Ressourcen. Darüber hinaus kann das Fehlen vordefinierter Arbeitsabläufe zu Schwankungen im Analyseprozess führen, was sich möglicherweise auf die Wiederholbarkeit der Ergebnisse auswirkt.

Automatisierte Datenanalyse: Konsistenz und Effizienz

Im Gegensatz zu Ad-hoc-Methoden verwendet die automatisierte Datenanalyse einen systematischen und strukturierten Ansatz, der auf bestehendem Prozesswissen aufbaut und sich durch seine Wiederholbarkeit auszeichnet.

Diese Technik legt den Schwerpunkt auf Datenvisualisierung, vorkonfigurierte Arbeitsabläufe und Prozessmodellierung. Sie umfasst vordefinierte Algorithmen, Dashboards und Berichtswerkzeuge zur Datenverarbeitung. Beispielsweise können automatisierte Dashboards Schlüsselkennzahlen (KPIs) wie Produktionsraten, Energieverbrauch und Qualitätsmetriken verfolgen und bieten Echtzeit-Einblicke und Warnmeldungen für schnelle Entscheidungsfindung.

Zu den Vorteilen der automatisierten Analyse zählen ihre Konsistenz, Effizienz, Skalierbarkeit und die Möglichkeit, etablierte Informationen des Unternehmens zu verbreiten. Allerdings ist sie weniger anpassungsfähig an neue oder unvorhergesehene Situationen und stützt sich stark auf vorhandenes Wissen. Falsche Annahmen oder Modelle können zu ungenauen Ergebnissen führen, und es sind erhebliche Anfangsinvestitionen und laufende Wartungsarbeiten erforderlich, um Genauigkeit und Relevanz zu gewährleisten.

Integration von Ad-hoc- und automatisierten Ansätzen

Sowohl die Ad-hoc- als auch die automatisierte Datenanalyse spielen entscheidende Rollen in der Zellstoff- und Papierindustrie. Jeder Ansatz hat einzigartige Beiträge zur Prozessoptimierung und Entscheidungsfindung und ihre Integration kann zu robusteren und anpassungsfähigeren Abläufen führen.

Durch die Integration beider Ansätze können Unternehmen ein Gleichgewicht zwischen Flexibilität und Konsistenz erreichen, was zu einer höheren betrieblichen Effizienz und einer verbesserten Qualitätskontrolle führt. Die Ad-hoc-Analyse bietet die Flexibilität, auf neue Herausforderungen und Chancen zu reagieren, während die automatisierte Analyse die weit verbreitete Anwendung bewährter Erkenntnisse sicherstellt. Erkenntnisse aus der Ad-hoc-Analyse können in automatisierte Arbeitsabläufe integriert werden, wodurch die Genauigkeit und Relevanz automatisierter Systeme kontinuierlich verbessert wird.

Anforderungen an Datenanalysetools

Um sowohl die Ad-hoc- als auch die automatisierte Datenanalyse effektiv zu unterstützen, müssen Tools über unterschiedliche Fähigkeiten verfügen. Für die Ad-hoc-Analyse sollten Tools eine dynamische Datenexploration ermöglichen, fortschrittliche Analysetechniken unterstützen und einen iterativen Arbeitsablauf erleichtern. Sie sollten sich auch nahtlos in verschiedene Datenquellen integrieren und eine benutzerfreundliche Schnittstelle bieten, um eine schnelle Anpassung an neue Herausforderungen zu ermöglichen.

Für die automatisierte Analyse sollten Tools vordefinierte Arbeitsabläufe und Modelle unterstützen, die Überwachung von Daten in Echtzeit ermöglichen, statistische Prozesskontrolle (SPC) integrieren und skalierbar sein, um große Datenmengen zu bewältigen. Sie sollten auch die Verbreitung von etabliertem Wissen innerhalb des Unternehmens erleichtern.

Schlussfolgerung

Zusammenfassend kann die Integration von Ad-hoc- und automatisierter Datenanalyse die Fähigkeit der Zellstoff- und Papierindustrie erheblich verbessern, Prozesse zu optimieren und hohe Qualitätsstandards aufrechtzuerhalten. Durch die Nutzung der Stärken beider Methoden können Unternehmen einen ausgewogenen Ansatz erreichen, der sowohl anpassungsfähig als auch konsistent ist, was letztendlich zu robusteren und effizienteren Abläufen führt.

Erfahren Sie mehr

Für diejenigen, die daran interessiert sind, die in diesem Artikel diskutierten innovativen Methoden weiter zu erkunden, bietet Trimble ein umfassendes Whitepaper mit dem Titel “Innovative Data Analytics in the Pulp and Paper Industry: Balancing Ad Hoc Insights with Automated Consistency.” Dieses Dokument bietet eine eingehende Untersuchung der Techniken und Vorteile der Integration von Ad-hoc- und automatisierter Datenanalyse. Um ein Exemplar anzufordern und zusätzliche Einblicke in die Optimierung von Prozessen in der Zellstoff- und Papierindustrie zu gewinnen, kontaktieren Sie bitte wedgesales@trimble.com.

Treffen Sie uns auf der MIAC 2025!

Trimble Wedge ist stolz darauf, die MIAC 2025 zu sponsern, die führende Veranstaltung für die Papier- und Verpackungsindustrie in Italien. Die Konferenz findet vom 8. bis 10. Oktober 2025 in Lucca statt.

Nutzen Sie die Gelegenheit, um mit unseren Experten für Prozessdatenanalyse, Matti Häkkinen, Holger Wagner und Teemu Möykkylä, in Kontakt zu treten und zu erfahren, wie Wedge Ihre Prozessverbesserungsbemühungen unterstützen kann.

Billerud Gävle entscheidet sich für Wedge

Die Produktionsstätte von Billerud m schwedischen Gävle, die für die Herstellung von Verpackungskarton für Flüßigkeiten und White-Top–Linern für lebensmittelsichere Verpackungslösungen, hat sich für Wedge entschieden, um eine gleichbleibende Qualität und Effizienz in ihrem Betrieb zu gewährleisten. Nach einer erfolgreichen Pilotphase war Billerud von den Vorteilen und Fähigkeiten von Wedge überzeugt, was zu einer langfristigen Vereinbarung für dessen Nutzung führte.

Billerud ist ein führender Anbieter von nachhaltigen Verpackungsmaterialien und -lösungen. Die Entscheidung, Wedge in ihrem Werk in Gävle einzusetzen, ist ein Weg, fortschrittliche Technologie zu nutzen, um hohe Prozesseffizienz und Produktqualität zu gewährleisten und den Kundenanforderungen an Lauf- und Druckfähigkeit in den Umwandlungsprozessen sowie der Funktionalität der endgültigen Verpackungslösungen gerecht zu werden.

Die leistungsstarken Analyse- und Echtzeit- Überwachungsfunktionen von Wedge werden Billerud dabei unterstützen, seine Produktionsprozesse zu optimieren, die Schwankungen zu verringern und die Produktqualität insgesamt zu verbessern.

Wir freuen uns, mit Billerud zusammenzuarbeiten und zu ihrem Ziel beizutragen, hervorragende Verpackungslösungen zu liefern.

Treffen Sie uns bei zwei wichtigen Branchenevents im Juli

Wir freuen uns, Wedge bei zwei bedeutenden Branchenevents im Juli zu präsentieren. Treffen Sie uns bei Zellcheming in Wiesbaden, Deutschland, vom 1. bis 3. Juli, und beim Congresso Nacional da Bioenergia in Araçatuba, Brasilien, vom 1. bis 2. Juli.

Bei Zellcheming wird Matti Häkkinen am Mittwoch, den 2. Juli, von 10:10 bis 10:30 Uhr eine Präsentation mit dem Titel “Dynamic vs. Systematic: Exploring Data Analysis Strategies in the Pulp and Paper Industry” halten. Diese Sitzung wird verschiedene Ansätze zur Datenanalyse in der Zellstoff- und Papierindustrie untersuchen.

Gleichzeitig wird Alan Oliveira beim Congresso Nacional da Bioenergia “Aproveitamento de dados industriais: Transformando dados fragmentados em vantagem competitiva” im Industriepanel präsentieren. Diese Präsentation wird sich darauf konzentrieren, industrielle Daten zu nutzen, um Wettbewerbsvorteile zu schaffen.

Wir freuen uns darauf, Sie bald zu treffen!

Treffen wir uns auf der TAPPICon 2025 in Minneapolis!

Wir freuen uns, unsere Teilnahme an der TAPPICon 2025 anzukündigen, der führenden Konferenz für nachhaltige Forstprodukte, die vom 4. bis 7. Mai 2025 in Minneapolis, MN, stattfindet.

Unser Team, darunter Teemu Möykkylä und Matti Häkkinen, wird dort sein, um Wedge vorzustellen, unser leistungsstarkes Tool für Prozessdatenanalysen. Wedge ist darauf ausgelegt, Ihnen zu helfen, das Beste aus Ihren Prozessdaten herauszuholen, die Effizienz zu steigern und die Nachhaltigkeit Ihrer Abläufe zu fördern. Egal, ob Sie die Leistung optimieren oder tiefere Einblicke in Ihre Prozesse gewinnen möchten, Wedge ist die Lösung, die Sie benötigen.

Wir laden Sie auch herzlich ein, an einer aufschlussreichen Präsentation von Teemu Möykkylä am Dienstag, den 6. Mai um 9:20 Uhr teilzunehmen. Er wird über “Innovative Data Analytics in the Pulp and Paper Industry: Balancing Ad-Hoc Insights with Automated Consistency” sprechen. Diese Präsentation ist Teil der Sitzung “Die Kraft fortschrittlicher Datenanalysen freisetzen: Techniken und praktische Strategien für erfolgreiche Implementierungen.” Verpassen Sie nicht die Gelegenheit, mehr über die neuesten Datenanalysetechniken zu erfahren, die die Zellstoff- und Papierindustrie transformieren.

Lassen Sie uns auf der TAPPICon treffen!

Treffen wir uns auf der Paper & Tissue One Show in Abu Dhabi!

Trimble Wedge is exhibiting at Paper & Tissue One Show, the premier global paper and tissue industry event. Paper & Tissue One Show will take place in Abu Dhabi from January 21 to 23, 2025.

Trimble Wedge stellt auf der Paper & Tissue One Show aus, der führenden globalen Veranstaltung der Papier- und Tissueindustrie. Die Paper & Tissue One Show findet vom 21. bis 23. Januar 2025 in Abu Dhabi.

Auf der Paper & Tissue One Show können Sie unsere Experten für Prozessdatenanalyse Matti Häkkinen, Jürgen Missel, Holger Wagner und Teemu Möykkylä treffen, um zu besprechen, ob Wedge das System für Ihre Prozessverbesserung sein könnte.

Wir sehen uns in Abu Dhabi!

Nutzbarmachung von Prozessdaten: Fragmentierte Prozessdaten in Wettbewerbsvorteile umwandeln

Die Menge an Daten, die in industriellen Prozessen gesammelt werden, steigt mit zunehmender Geschwindigkeit. Moderne Computersysteme ermöglichen die Speicherung von Daten über lange Zeiträume und mit einer viel schnelleren Abtastrate als je zuvor. Dies wirft eine wichtige Frage auf: Was machen wir mit all diesen Daten?

BtoC-Unternehmen sammeln und analysieren bereits seit einigen Jahren erfolgreich große und komplexe Kundentransaktionsdaten. Dieser “Big-Data-Ansatz” soll ihnen einen Wettbewerbsvorteil gegenüber ihren Konkurrenten verschaffen. Industrielle BtoB-Unternehmen sind noch nicht auf dem gleichen Stand, aber der immer stärker werdende Wettbewerb zwingt sie zur Feinabstimmung ihrer Produktionsprozesse. Die Unternehmen sind gezwungen, bessere Qualität in größeren Mengen zu produzieren und gleichzeitig den Energieverbrauch und die Rohstoffkosten zu senken.

Diese Probleme können gelöst werden, indem den Mitarbeitern die Möglichkeit gegeben wird, die Fertigungsprozesse auf der Grundlage von gemessenen Zeitreihendaten zu verbessern.

Durch den Einsatz effizienter Datenverarbeitungsmethoden und -werkzeuge können Industrieunternehmen das ungenutzte Potenzial ihrer vorhandenen Daten freilegen, was zu einer verbesserten Prozessdiagnose und einem Wettbewerbsvorteil führt.

Herausforderungen bei der Nutzung von fragmentierten Daten

In den letzten zehn Jahren sind digitale Informations-, Prozesssteuerungs- und Geschäftsabwicklungssysteme zu Standardanwendungen in der Zellstoff- und Papierindustrie geworden. Gleichzeitig ist die Menge der gesammelten und gespeicherten Daten erheblich gestiegen, und dieser Trend wird sich auch in Zukunft fortsetzen.

Die in den Fabriken eingesetzten Systeme konzentrieren sich in der Regel entweder auf einen begrenzten Prozessbereich (z. B. Rohstoffhandling, Stoffaufbereitung, Rollenbereich) oder auf einen begrenzten Datentyp (z. B. Regelkreisdaten, Prozessdaten, Qualitätsdaten und Kostendaten).

Heute werden riesige Datenmengen gesammelt, aber nur ein kleiner Teil davon wird genutzt. Eine Produktionsanlage oder ein ganzes Unternehmen würde enorme Vorteile erzielen, wenn alle diese Daten nahtlos zusammengeführt würden und die Mitarbeiter einen Gesamtüberblick über den Prozess erhielten.  

Kombination von Fachwissen und effizientem Datenmanagement

Die gesammelten Datenmengen enthalten viel ungenutztes Geschäfts- und Prozessverbesserungspotenzial. Um dieses Potenzial auszuschöpfen, ist ein effizientes Datenmanagementsystem erforderlich.

Ein effizientes Datenmanagementsystem ermöglicht die Zusammenführung aller Datenquellen in einem System. Eine benutzerfreundliche Oberfläche unterstützt den Anwender dabei, nützliche Informationen und Erkenntnisse aus den riesigen Datenmengen zu gewinnen. Der Benutzer sollte nicht viel Zeit damit verbringen müssen, Daten in das Datenverarbeitungssystem einzugeben; stattdessen sollte er sich darauf konzentrieren, das Problem zu beheben, die Effizienz zu steigern oder die Qualität des Endprodukts zu verbessern.

Die Beziehungen zwischen den Prozessphänomenen sind sehr kompliziert, und mehrere Messungen beeinflussen sich gegenseitig. Daher besteht oft die Notwendigkeit, ursprüngliche Messungen zu neuen und nützlicheren Messungen zu kombinieren, z. B. zur Berechnung des Trockenstoffflusses auf der Grundlage von ursprünglichen Fluss- und Konsistenzmessungen. Um diese Art der freien Datenänderung zu ermöglichen, muss es eine einfache Möglichkeit geben, eigene Berechnungen in das Datenverarbeitungssystem einzufügen.

Prozess der Datenanalyse: Ein systemgesteuerter Workflow oder ein menschengesteuerter Mindflow?

Die Prozessanalyse kann begonnen werden, wenn alle relevanten Daten im Datenverarbeitungssystem verfügbar sind. Abbildung 1 veranschaulicht den vereinfachten Arbeitsablauf der Prozessdatenanalyse oder der Fehlersuche.

Der erste Schritt besteht darin, das Ziel zu definieren: Was wollen wir herausfinden?

Der nächste Schritt besteht darin, einen funktionierenden Satz von Messungen zu erstellen. Zu diesem Zeitpunkt ist es wichtig, Daten aus verschiedenen Quellen in einem System zu kombinieren. Die Datenverbindung sollte online sein, um mühsame und langsame Datenimporte in das Analysesystem zu vermeiden. Die Daten sollten außerdem nahezu in Echtzeit vorliegen, um schnell auf auftretende Situationen reagieren zu können.

Prozessdaten enthalten immer einige schlechte Werte, z. B. große Ausreißerwerte, fehlerhafte Werte und stillgelegte Datenwerte. Diese Art von schlechten Daten beeinträchtigt die Analyseergebnisse erheblich, und deshalb müssen diese Werte vor der Analyse entfernt werden. Um diese Art der Datenbereinigung effizient durchführen zu können, sollte das Tool das Prozesswissen des Benutzers unterstützen. Ein erfahrener Mitarbeiter mit Prozesskenntnissen kann am besten beurteilen, welche Werte irrelevant sind, und diese Werte sollten dann leicht aus dem Datensatz entfernt werden können.

Wenn die Daten bereinigt sind, kann der Benutzer Prozessanalysen durchführen, z. B. Statistiken und Korrelationsberechnungen. In diesem Schritt findet der Benutzer in der Regel bereits einige nützliche Informationen aus den Daten, aber bei einer großen Anzahl von Messungen kann dies sehr mühsam sein. Mit Hilfe von Computern lässt sich dieser Schritt wesentlich effizienter gestalten. Ein Computer kann schnell viele Prozess- und Qualitätsmessungen überprüfen, um festzustellen, welche am besten mit dem gesetzten Ziel korrelieren. Das System sollte in der Lage sein, die Messungen in eine Rangfolge zu bringen und eine Kandidatenliste der Messungen zu erstellen, die den größten Einfluss auf die Zielmessung zu haben scheinen. In diesem Schritt werden die Daten in Informationen umgewandelt.

Es ist wichtig, daran zu denken, dass der Benutzer über gute Prozesskenntnisse verfügen muss, um nützliche Studienergebnisse zu erhalten und zuverlässige Schlussfolgerungen zu ziehen. In diesem Schritt werden die Informationen in neues Wissen umgewandelt. Bei Bedarf kann der Benutzer die Aufgabe neu definieren und die Schleife erneut beginnen.

Im wirklichen Leben ist ein guter und effizienter Datenanalyse-Workflow nicht linear und einfach wie oben beschrieben; er sieht eher aus wie ein Spaghetti-Ball.

Neue Informationen und Erkenntnisse ergeben sich unweigerlich, wenn Daten durch kreative Bereinigungs-, Verfeinerungs-, Berechnungs- und Analysemethoden verarbeitet werden. Dies bringt die Datenanalyse voran. Oft führen diese neuen Erkenntnisse zu einer Neudefinition der ursprünglichen Fragestellung.

In einem effizienten Datenanalyse-Workflow werden in allen Schritten neue Erkenntnisse gewonnen. Datenanalysesysteme sollten diesen agilen und kreativen Arbeitsstil unterstützen. Die Benutzer müssen in der Lage sein, den Datensatz zu ändern, verschiedene Datenbereinigungsszenarien auszuprobieren und verschiedene Analysemethoden flexibel anzuwenden.

Bessere Nutzung von Daten zur Bewältigung der Herausforderungen in den Bereichen Produktivität und Nachhaltigkeit

Während die Datenmenge immer schneller zunimmt, werden die Ressourcen in den Fabriken immer knapper. Der Wettbewerb zwischen Unternehmen und Fabriken ist hart, und die Situation wird in Zukunft nicht einfacher werden. Darüber hinaus wird es immer wichtiger, die natürlichen Ressourcen zu schonen.

Dies zwingt die Unternehmen dazu, ihre Prozesse effizienter und nachhaltiger zu gestalten. Eine der kosteneffizientesten Möglichkeiten, diese Ziele zu erreichen, ist die effizientere Nutzung vorhandener Daten.

Heutzutage müssen die Mitarbeiter in den Fabriken viele verschiedene Aufgaben gleichzeitig erledigen. Das bedeutet, dass sie nicht viel Zeit für das Datenmanagement aufwenden können. Es wird ein effizientes und intuitives Werkzeug benötigt, das alle relevanten Daten in einer Ansicht zusammenfasst. Der Benutzer mit guten Prozesskenntnissen muss in der Lage sein, vom System schnell und einfach Antworten auf Fragen zu Prozessproblemen zu erhalten.

 


Wollen Sie mehr Wissen?

Unser Verkaufsteam und Datenanalyse-Experten werden Ihnen gerne weiterhelfen. Erfahren Sie mehr über das industrielle Datenanalysewerkzeug Wedge.

Machen Sie den nächsten Schritt

Unterstützen und stärken Sie Ihr Team bei der Effizienzsteigerung. Heben Sie sich von der Konkurrenz ab.

Testversion anfordern

Top Kontakt