Treffen wir uns auf der TAPPICon 2025 in Minneapolis!

Wir freuen uns, unsere Teilnahme an der TAPPICon 2025 anzukündigen, der führenden Konferenz für nachhaltige Forstprodukte, die vom 4. bis 7. Mai 2025 in Minneapolis, MN, stattfindet.
Unser Team, darunter Teemu Möykkylä und Matti Häkkinen, wird dort sein, um Wedge vorzustellen, unser leistungsstarkes Tool für Prozessdatenanalysen. Wedge ist darauf ausgelegt, Ihnen zu helfen, das Beste aus Ihren Prozessdaten herauszuholen, die Effizienz zu steigern und die Nachhaltigkeit Ihrer Abläufe zu fördern. Egal, ob Sie die Leistung optimieren oder tiefere Einblicke in Ihre Prozesse gewinnen möchten, Wedge ist die Lösung, die Sie benötigen.
Wir laden Sie auch herzlich ein, an einer aufschlussreichen Präsentation von Teemu Möykkylä am Dienstag, den 6. Mai um 9:20 Uhr teilzunehmen. Er wird über “Innovative Data Analytics in the Pulp and Paper Industry: Balancing Ad-Hoc Insights with Automated Consistency” sprechen. Diese Präsentation ist Teil der Sitzung “Die Kraft fortschrittlicher Datenanalysen freisetzen: Techniken und praktische Strategien für erfolgreiche Implementierungen.” Verpassen Sie nicht die Gelegenheit, mehr über die neuesten Datenanalysetechniken zu erfahren, die die Zellstoff- und Papierindustrie transformieren.
Lassen Sie uns auf der TAPPICon treffen!
Treffen wir uns auf der Paper & Tissue One Show in Abu Dhabi!

Trimble Wedge stellt auf der Paper & Tissue One Show aus, der führenden globalen Veranstaltung der Papier- und Tissueindustrie. Die Paper & Tissue One Show findet vom 21. bis 23. Januar 2025 in Abu Dhabi.
Auf der Paper & Tissue One Show können Sie unsere Experten für Prozessdatenanalyse Matti Häkkinen, Jürgen Missel, Holger Wagner und Teemu Möykkylä treffen, um zu besprechen, ob Wedge das System für Ihre Prozessverbesserung sein könnte.
Wir sehen uns in Abu Dhabi!
Nutzbarmachung von Prozessdaten: Fragmentierte Prozessdaten in Wettbewerbsvorteile umwandeln

Die Menge an Daten, die in industriellen Prozessen gesammelt werden, steigt mit zunehmender Geschwindigkeit. Moderne Computersysteme ermöglichen die Speicherung von Daten über lange Zeiträume und mit einer viel schnelleren Abtastrate als je zuvor. Dies wirft eine wichtige Frage auf: Was machen wir mit all diesen Daten?
BtoC-Unternehmen sammeln und analysieren bereits seit einigen Jahren erfolgreich große und komplexe Kundentransaktionsdaten. Dieser “Big-Data-Ansatz” soll ihnen einen Wettbewerbsvorteil gegenüber ihren Konkurrenten verschaffen. Industrielle BtoB-Unternehmen sind noch nicht auf dem gleichen Stand, aber der immer stärker werdende Wettbewerb zwingt sie zur Feinabstimmung ihrer Produktionsprozesse. Die Unternehmen sind gezwungen, bessere Qualität in größeren Mengen zu produzieren und gleichzeitig den Energieverbrauch und die Rohstoffkosten zu senken.
Diese Probleme können gelöst werden, indem den Mitarbeitern die Möglichkeit gegeben wird, die Fertigungsprozesse auf der Grundlage von gemessenen Zeitreihendaten zu verbessern.
Durch den Einsatz effizienter Datenverarbeitungsmethoden und -werkzeuge können Industrieunternehmen das ungenutzte Potenzial ihrer vorhandenen Daten freilegen, was zu einer verbesserten Prozessdiagnose und einem Wettbewerbsvorteil führt.
Herausforderungen bei der Nutzung von fragmentierten Daten
In den letzten zehn Jahren sind digitale Informations-, Prozesssteuerungs- und Geschäftsabwicklungssysteme zu Standardanwendungen in der Zellstoff- und Papierindustrie geworden. Gleichzeitig ist die Menge der gesammelten und gespeicherten Daten erheblich gestiegen, und dieser Trend wird sich auch in Zukunft fortsetzen.
Die in den Fabriken eingesetzten Systeme konzentrieren sich in der Regel entweder auf einen begrenzten Prozessbereich (z. B. Rohstoffhandling, Stoffaufbereitung, Rollenbereich) oder auf einen begrenzten Datentyp (z. B. Regelkreisdaten, Prozessdaten, Qualitätsdaten und Kostendaten).
Heute werden riesige Datenmengen gesammelt, aber nur ein kleiner Teil davon wird genutzt. Eine Produktionsanlage oder ein ganzes Unternehmen würde enorme Vorteile erzielen, wenn alle diese Daten nahtlos zusammengeführt würden und die Mitarbeiter einen Gesamtüberblick über den Prozess erhielten.
Kombination von Fachwissen und effizientem Datenmanagement
Die gesammelten Datenmengen enthalten viel ungenutztes Geschäfts- und Prozessverbesserungspotenzial. Um dieses Potenzial auszuschöpfen, ist ein effizientes Datenmanagementsystem erforderlich.
Ein effizientes Datenmanagementsystem ermöglicht die Zusammenführung aller Datenquellen in einem System. Eine benutzerfreundliche Oberfläche unterstützt den Anwender dabei, nützliche Informationen und Erkenntnisse aus den riesigen Datenmengen zu gewinnen. Der Benutzer sollte nicht viel Zeit damit verbringen müssen, Daten in das Datenverarbeitungssystem einzugeben; stattdessen sollte er sich darauf konzentrieren, das Problem zu beheben, die Effizienz zu steigern oder die Qualität des Endprodukts zu verbessern.
Die Beziehungen zwischen den Prozessphänomenen sind sehr kompliziert, und mehrere Messungen beeinflussen sich gegenseitig. Daher besteht oft die Notwendigkeit, ursprüngliche Messungen zu neuen und nützlicheren Messungen zu kombinieren, z. B. zur Berechnung des Trockenstoffflusses auf der Grundlage von ursprünglichen Fluss- und Konsistenzmessungen. Um diese Art der freien Datenänderung zu ermöglichen, muss es eine einfache Möglichkeit geben, eigene Berechnungen in das Datenverarbeitungssystem einzufügen.
Prozess der Datenanalyse: Ein systemgesteuerter Workflow oder ein menschengesteuerter Mindflow?
Die Prozessanalyse kann begonnen werden, wenn alle relevanten Daten im Datenverarbeitungssystem verfügbar sind. Abbildung 1 veranschaulicht den vereinfachten Arbeitsablauf der Prozessdatenanalyse oder der Fehlersuche.
Der erste Schritt besteht darin, das Ziel zu definieren: Was wollen wir herausfinden?
Der nächste Schritt besteht darin, einen funktionierenden Satz von Messungen zu erstellen. Zu diesem Zeitpunkt ist es wichtig, Daten aus verschiedenen Quellen in einem System zu kombinieren. Die Datenverbindung sollte online sein, um mühsame und langsame Datenimporte in das Analysesystem zu vermeiden. Die Daten sollten außerdem nahezu in Echtzeit vorliegen, um schnell auf auftretende Situationen reagieren zu können.
Prozessdaten enthalten immer einige schlechte Werte, z. B. große Ausreißerwerte, fehlerhafte Werte und stillgelegte Datenwerte. Diese Art von schlechten Daten beeinträchtigt die Analyseergebnisse erheblich, und deshalb müssen diese Werte vor der Analyse entfernt werden. Um diese Art der Datenbereinigung effizient durchführen zu können, sollte das Tool das Prozesswissen des Benutzers unterstützen. Ein erfahrener Mitarbeiter mit Prozesskenntnissen kann am besten beurteilen, welche Werte irrelevant sind, und diese Werte sollten dann leicht aus dem Datensatz entfernt werden können.
Wenn die Daten bereinigt sind, kann der Benutzer Prozessanalysen durchführen, z. B. Statistiken und Korrelationsberechnungen. In diesem Schritt findet der Benutzer in der Regel bereits einige nützliche Informationen aus den Daten, aber bei einer großen Anzahl von Messungen kann dies sehr mühsam sein. Mit Hilfe von Computern lässt sich dieser Schritt wesentlich effizienter gestalten. Ein Computer kann schnell viele Prozess- und Qualitätsmessungen überprüfen, um festzustellen, welche am besten mit dem gesetzten Ziel korrelieren. Das System sollte in der Lage sein, die Messungen in eine Rangfolge zu bringen und eine Kandidatenliste der Messungen zu erstellen, die den größten Einfluss auf die Zielmessung zu haben scheinen. In diesem Schritt werden die Daten in Informationen umgewandelt.
Es ist wichtig, daran zu denken, dass der Benutzer über gute Prozesskenntnisse verfügen muss, um nützliche Studienergebnisse zu erhalten und zuverlässige Schlussfolgerungen zu ziehen. In diesem Schritt werden die Informationen in neues Wissen umgewandelt. Bei Bedarf kann der Benutzer die Aufgabe neu definieren und die Schleife erneut beginnen.
Im wirklichen Leben ist ein guter und effizienter Datenanalyse-Workflow nicht linear und einfach wie oben beschrieben; er sieht eher aus wie ein Spaghetti-Ball.
Neue Informationen und Erkenntnisse ergeben sich unweigerlich, wenn Daten durch kreative Bereinigungs-, Verfeinerungs-, Berechnungs- und Analysemethoden verarbeitet werden. Dies bringt die Datenanalyse voran. Oft führen diese neuen Erkenntnisse zu einer Neudefinition der ursprünglichen Fragestellung.
In einem effizienten Datenanalyse-Workflow werden in allen Schritten neue Erkenntnisse gewonnen. Datenanalysesysteme sollten diesen agilen und kreativen Arbeitsstil unterstützen. Die Benutzer müssen in der Lage sein, den Datensatz zu ändern, verschiedene Datenbereinigungsszenarien auszuprobieren und verschiedene Analysemethoden flexibel anzuwenden.
Bessere Nutzung von Daten zur Bewältigung der Herausforderungen in den Bereichen Produktivität und Nachhaltigkeit
Während die Datenmenge immer schneller zunimmt, werden die Ressourcen in den Fabriken immer knapper. Der Wettbewerb zwischen Unternehmen und Fabriken ist hart, und die Situation wird in Zukunft nicht einfacher werden. Darüber hinaus wird es immer wichtiger, die natürlichen Ressourcen zu schonen.
Dies zwingt die Unternehmen dazu, ihre Prozesse effizienter und nachhaltiger zu gestalten. Eine der kosteneffizientesten Möglichkeiten, diese Ziele zu erreichen, ist die effizientere Nutzung vorhandener Daten.
Heutzutage müssen die Mitarbeiter in den Fabriken viele verschiedene Aufgaben gleichzeitig erledigen. Das bedeutet, dass sie nicht viel Zeit für das Datenmanagement aufwenden können. Es wird ein effizientes und intuitives Werkzeug benötigt, das alle relevanten Daten in einer Ansicht zusammenfasst. Der Benutzer mit guten Prozesskenntnissen muss in der Lage sein, vom System schnell und einfach Antworten auf Fragen zu Prozessproblemen zu erhalten.
Wollen Sie mehr Wissen?
Unser Verkaufsteam und Datenanalyse-Experten werden Ihnen gerne weiterhelfen. Erfahren Sie mehr über das industrielle Datenanalysewerkzeug Wedge.
Jetzt verfügbar: Wedge 10

Wir freuen uns, Wedge 10 vorzustellen, das neueste Upgrade unseres Prozess-Analyse-Tools.
Wedge 10 bietet:
- Eine neue Web-Browser-Oberfläche zur Anzeige von Dashboards und Trends
- Eine erweiterte Sammlung von Dashboard-Anzeigen und Diagramm-Komponenten
- Verbesserte Werkzeuge zur Diagrammbearbeitung
Darüber hinaus bietet das Upgrade zahlreiche weitere Funktionen und Verbesserungen der Benutzerfreundlichkeit, um Ihnen die Arbeit noch mehr zu erleichtern.
Neugierig, was Wedge 10 für Sie tun kann? Kontaktieren Sie wedgesales@trimble.com, um loszulegen
Treffen wir uns auf der MIAC in Italien!

Trimble Wedge ist Sponsor der MIAC 2024, der wichtigsten Veranstaltung für die Papier- und Verpackungsindustrie in Italien. Die MIAC findet vom 9. bis 1. Oktober 2024 in Lucca statt.
Auf der MIAC können Sie unsere Experten für Prozessdatenanalyse Matti Häkkinen, Jürgen Missel, Holger Wagner und Teemu Möykkylä treffen, um zu besprechen, ob Wedge das System für Ihre Prozessverbesserung sein könnte.
Merken Sie sich den Termin vor: MIAC Tissue Conference – Session 1 am 9. Oktober 2024 um 15:50 Uhr. Zu diesem Zeitpunkt wird Mika Suojärvi seinen Vortrag halten: „Finding answers to questions by using process data.“.
Worüber ich spreche, wenn ich über Datenanalyse spreche

Inspiriert von einem Buch von Haruki Murakami, fasst der Titel gut zusammen, was die Debatte über Datenanalyse oft prägt: wir diskutieren oft über unterschiedliche Konzepte. Einige betrachten die Datenanalyse als Berichterstattung, während andere sie mit Modellierung oder Berechnungen in Verbindung bringen. Die einen diskutieren über Visualisierung, die anderen sehen es als das Finden von Antworten aus Daten. Wir schätzen alle der oben genannten Elemente. Wir sind jedoch der Meinung, dass das wahre Wesen der Datenanalyse woanders liegt und dass die menschliche Kreativität das Schlüsselelement ist.
In diesem Artikel werden wir unsere Sichtweise zu diesem Thema darlegen. Wir wollen damit nicht sagen, dass andere Definitionen falsch sind, aber es ist wichtig, genau zu definieren, was wir meinen, wenn wir über Datenanalyse sprechen.
Was ist Datenanalyse? Unsere Definition
Für die Datenanalyse gibt es verschiedene Definitionen; unsere lautet wie folgt: Datenanalyse bedeutet, dass man kreative Methoden der Datenverarbeitung einsetzt, um Antworten auf neue Fragen zu finden oder Erklärungen für unbekannte Szenarien zu liefern.
Die Datenanalyse kann in Situationen hilfreich sein, in denen man die Antwort nicht kennt und sie nicht vorhersagen kann.
Als nächstes wollen wir diese Definition in kleinere Teile zerlegen und die Komponenten der kreativen Datenanalyse spezifizieren.
Die elementaren Bestandteile der kreativen Datenanalyse:
1. Stellen Sie neue oder zufällige Fragen
Eine neue Frage ist eine Frage, für die es kein fertiges Modell oder keine fertige Antwort gibt. Wenn zum Beispiel etwas zum ersten Mal geschieht oder sich die Umgebung verändert hat, stehen wir vor einer neuen Herausforderung.
Wenn dieselbe Frage wiederholt auftaucht, kann es effizienter sein, ein automatisiertes System zu schaffen, das die Antwort liefert. Dabei kann es sich um ein Berichtssystem, eine Automatisierungssystem- Konfiguration oder etwas anderes handeln.
2. Sammeln und verfeinern Sie die Daten, um die Antwort zu finden
Sammeln Sie Daten unvoreingenommen und in überschaubaren Mengen. Der Versuch, alle Daten zu sammeln, ist nicht machbar und wird wahrscheinlich zu einer Datenflut führen. Andererseits wird die Beschränkung der Rohdaten auf das Offensichtliche nicht zu neuen Erkenntnissen führen.
Rohdaten enthalten alle verfügbaren Informationen, sind aber ohne Bereinigung meist nutzlos. Die Daten müssen verfeinert werden, um aussagekräftige Merkmale aufzudecken und Antworten auf bestimmte Fragen zu finden. Der Prozess der Verfeinerung hängt von der Fragestellung und der Beschaffenheit der Rohdaten ab.
Wenn wir Antworten auf zufällige Fragen aus unbekannten Daten finden wollen, erfordert die Analyse ein kreatives Element, um erfolgreich zu sein, da vordefinierte Abläufe in neuen Situationen oft nicht gut genug funktionieren.
3. Lernen Sie nebenbei
Wenn Sie Daten durch kreative Bereinigungs-, Verfeinerungs-, Berechnungs- und Analysemethoden verarbeiten, ergeben sich unweigerlich neue Informationen und Erkenntnisse. Dies bringt Ihre Datenanalyse voran. Oft führen diese neuen Erkenntnisse zu einer Neudefinition der ursprünglichen Frage. Wir haben zum Beispiel einmal an einem Projekt zur Senkung der Produktionskosten teilgenommen. Das Ergebnis war jedoch eine erhöhte Produktionsgeschwindigkeit und -ausbeute, welche Produktions- und Effizienzrekorde brach.
4. Lassen Sie die Daten für sich selbst sprechen
Aufgrund des kreativen Verfeinerungsprozesses sind die durch die Datenanalyse erhaltenen Antworten oft unvorhersehbar. Eine aussagekräftige Datenanalyse setzt Fachwissen voraus, und Analysten neigen dazu, ihre bevorzugten Methoden der Datenveredelung zu verwenden, was manchmal zu voreingenommenen Denken führen kann. Ein kluger Datenanalyst lässt die Daten für sich selbst sprechen und stelle die darin enthaltenen Informationen bereit. Im Gegensatz dazu können schlechte Analytiker die Daten manipulieren, um ihre vorgefassten Annahmen und Hypothesen zu unterstützen.
Datenanalyse ist ein Hilfsmittel; kreative Menschen bringen Wert
Neugierige und kreative Menschen, die gerne nach Lösungen für komplexe Fragen suchen, sind ein wertvolles Kapital für jedes Unternehmen und dürfen nicht außer Acht gelassen werden, wenn es darum geht, die Rentabilität von Datenanalysen und Systemen zu ermitteln. Die Datenanalyse allein bringt keinen Nutzen oder Wert; sie ist ein Hilfsmittel.
Der Wert entsteht, wenn Sie die Ergebnisse der kreativen Datenanalyse nutzen, um menschliche Abläufe zu ändern, Automatisierungssysteme neu zu konfigurieren, Rezepte zu modifizieren usw. Die Ergebnisse der kreativen Datenanalyse sind unvorhersehbar, da sie Antworten auf zufällige Fragen finden. Dennoch ist die Datenanalyse für den Erfolg eines jeden Unternehmens von entscheidender Bedeutung. Mit kreativer Datenanalyse können Sie neue Erkenntnisse gewinnen und schneller bessere und genauere Entscheidungen treffen.
Wollen Sie mehr Wissen?
Unser Verkaufsteam und Datenanalyse-Experten werden Ihnen gerne weiterhelfen. Erfahren Sie mehr über das industrielle Datenanalysewerkzeug Wedge.
Formica weitet Wedge-Einsatz auf Spanien aus

Das Formica-Werk in Valencia, Spanien, hat mit der Anschaffung des Prozessanalysetools Wedge von Trimble einen großen Schritt in Richtung vollständige Digitalisierung gemacht.
Das Formica-Werk in Finnland nutzt Wedge bereits seit 2023 und die ausgezeichnete Erfahrung machte dem Team in Valencia die Entscheidung leicht.
“Wedge ist eine leistungsstarke Überwachungs- und Analysesoftware, die uns dabei helfen wird, die Abweichungen in unseren Prozessen zu reduzieren. Die Schulung für die Anwendung von Wedge war von hoher Qualität und wir haben bereits viel darüber gelernt, wie wir unsere Prozessdaten besser nutzen können”, sagt Jose Luis Escobar Palomares, Produktionsleiter von Formica Valencia.
Die Formica Group ist ein führender Anbieter von markengeschützten, design- bestimmten Oberflächenlösungen für gewerbliche und private Kunden weltweit. Formica ist der größte Hersteller von Hochdrucklaminat (HPL).
Wedge verbessert die Nutzung von Prozessdaten in Europas größtem Kernkraftwerk

Das Kernkraftwerk Olkiluoto 3 von Teollisuuden Voima Oyj ist die größte stromerzeugende Anlage in Europa. Es ist auch das erste Kernkraftwerk, das mit Wedge arbeitet.
“In einem Kernkraftwerk stehen Sicherheit und Zuverlässigkeit an erster Stelle. In einem Kernkraftwerk werden viele Prozessdaten erzeugt, die schnell und einfach ausgewertet werden müssen. Wedge macht dies möglich. Wedge hat auch unsere Tests der Inbetriebnahme beschleunigt”, sagt Jouni Silvennoinen, OL3-Projektleiter bei TVO.
Teollisuuden Voima Oyj (TVO) liefert im Kernkraftwerk Olkiluoto in Eurajoki sicheren, wirtschaftlich und klimafreundlich erzeugten Strom. Olkiluoto 3 spielt eine wichtige Rolle bei der Erreichung des Ziels der Kohlenstoffneutralität bis 2035, welches sich die finnische Regierung gesetzt hat.
Die Wedge User Days sind jetzt Teil der Trimble Forestry User Conference

Die traditionellen Wedge User Days werden nun zum ersten Mal als Teil der Trimble Forestry User Conference abgehalten. Für Wedge-Nutzer gibt es einen eigenen Track namens Wedge User Group bei der Veranstaltung, der sich auf Themen konzentriert, die es Ihnen ermöglichen, Ihren eigenen Einsatz von Wedge zu diversifizieren und zu vertiefen.
Trimble Forestry User Conference ist eine zweitägige Veranstaltung. Durch Ihre Teilnahme werden Sie interessante Erfahrungsberichte von anderen Wedge-Nutzern hören und Tipps und Tricks direkt von den Wedge-Entwicklern erhalten.
Zeit: 10.-11. September 2024
Veranstaltungsort: Clarion Hotel Helsinki, Finnland
Weitere Informationen und Anmeldung >>
Sichern Sie sich heute Ihren Platz!
Hinweis: Alle Vertrags-Wedge-Nutzer, bitte kontaktieren Sie Ihren Wedge-Vertriebsrepräsentanten für einen Promo-Code.
Große Zellstoffhersteller in Lateinamerika haben hohe Erwartungen an ihre Prozessdatenanalyse

Seit 2022 ist Brasilien der größte Zellstoffproduzent der Welt und die Branche wächst weiter. Zellstoff ist auch das wichtigste Exportprodukt Brasiliens mit einem jährlichen Wert von 8,4 Milliarden USD (2022).
Um den hohen Anforderungen des internationalen Marktes gerecht zu werden, investiert die Zellstoff- und Papierindustrie in Brasilien in Datenanalyse- und Management – Technologien. Mit dem leistungsstarken Prozessdatenanalyse-Tool Wedge sind Unternehmen wie Klabin in der Lage, die internen Prozesse, die Qualitätskontrolle und deren Compliance besser zu überwachen.
Der Einsatz der Wedge-Technologie für die Datenanalyse bringt auch Unternehmen in anderen Teilen Lateinamerikas Ergebnisse, wie z. B. Arauco in Chile und UPM in Uruguay, die zu den größten Produzenten und Exporteuren von Zellstoff in Lateinamerika gehören.
Lesen Sie mehr in einem Artikel von Madeira Total (auf Portugiesisch)