Datenanalyse in der Industrie

Die Analyse industrieller Prozessdaten macht Optimierungspotenziale sichtbar und kann einen Beitrag zur Steigerung des Unternehmenserfolges leisten. Durch die zunehmende Digitalisierung in der Produktion stehen mehr Daten denn je zur Verfügung. Hier schlummert ein wertvoller Informationsschatz, der von vielen Anlagenbetreibern noch zu selten gehoben wird. Wie sind die Daten zu lesen, wie können sie ausgewertet werden, um die Wertschöpfungskette zu verbessern? Die Herausforderung besteht im Nutzbarmachen.

Ordnung schaffen! Prozessdaten nutzbar machen! Die Wertschöpfung steigern!

Temperaturen, Drücke oder Geschwindigkeiten: Maschinen und Rechnersysteme in modernen Produktionsanlagen tauschen solche Informationen permanent untereinander aus. Diese Prozessdaten dienen nicht nur dazu, dass vernetzte Maschinen den jeweiligen Ist-Zustand der mit ihnen in Verbindung stehenden Geräte kennen, um entsprechend darauf zu reagieren. Auch die Betreiber der Anlagen können wertvolle Erkenntnisse gewinnen – die richtige Interpretation der Daten vorausgesetzt. Erst Recht wenn zusätzliche Daten, wie etwa Qualitätsdaten, Wartungsberichte oder Auftragsdaten mit in die Analyse einfließen. Die Erkenntnisse können beispielsweise für Predictive Maintenance oder zur Verbesserung der Effizienz von Anlagen genutzt werden.

Ziele der Analyse von Prozessdaten 

Neben den schon genannten Anwendungsmöglichkeiten sollen bei der industriellen Datenauswertung beispielsweise folgende Ziele erreicht werden.

  • die Reduzierung von Ausfällen und somit die gesteigerte Verfügbarkeit
  • eine höhere Produktqualität
  • die Steigerung der Produktionsleistung
  • das leichtere Engineering von effektiven Neuanlagen
  • die Entlastung der Mitarbeiter

Doch bevor eine zielgerichtete Analyse von Prozessdaten möglich wird, müssen diese zunächst nutzbar gemacht werden. Eine echte Herausforderung. Denn: Die verfügbaren Prozessdaten stammen in der Regel von vielen unterschiedlichen Quellen und sind daher von einer großen Heterogenität gekennzeichnet. In der Regel herrscht Unordnung.

Während der Wert und die Zeit noch eindeutig sind, beginnt die Variabilität bereits bei den Einheiten. Ein Beispiel: Die Temperatur wird in Celsius angegeben, doch wird die Einheit mal mit C, mal mit C°,   Grad C, usw. abgekürzt. Noch komplizierter stellt sich die Einordung weiterer Metadaten dar, die die Eigenschaften der jeweiligen Messstelle beschreiben. Diese werden und wurden nach unterschiedlichsten Konventionen (beispielsweise KKS, technische Plätze, AKS ...) vergeben, die zudem oft nicht strikt eingehalten und mit der Zeit weiterentwickelt werden. Aber nicht nur Einheiten und Konventionen unterscheiden sich – auch die unterschiedlichen Systeme, in denen Daten erhoben werden, müssen bedacht werden. So werden Informationen aus Feldsystemen in einem kontinuierlichen Datenstrom gesendet, während Daten aus übergeordneten Systemen wie ERP oder MES als einzelne Datenpakete bereitgestellt werden.  Des Weiteren liegen benötigte Daten möglicherweise in den Händen von Partnern. Es ist offensichtlich, dass sich daraus verschiedene Anforderungen für die Datenaggregation ergeben. Aus all den potenziell zur Verfügung stehenden Daten entsteht eine Flut an heterogenen Informationen, die in unstrukturierter Form kaum von Nutzen sind. Vereinfacht ausgedrückt sind diese Informationen einzelne Pixel, die alleine keine Aussagekraft besitzen. Fügt man jedoch die richtigen Pixel zusammen, entsteht ein großes Bild, auf dem wichtige Details erkennbar werden.

Strategischer Ansatz und zuverlässige Partner: Schritt für Schritt zur effektiven Datennutzung

Zu keiner Zeit wurden so viele Daten im industriellen Umfeld generiert wie heute. Grundsätzlich ist dies ein Vorteil, doch in der Praxis zeigt sich, dass die Komplexität der Aufgabe in Abhängigkeit von der Datenmenge wächst. Ein Beispiel: Für eine industrielle Anlage soll ein Energiebericht erstellt werden. Bei kleinen Anlagen mit wenigen hundert Messstellen ist dies noch händisch oder mit einfachen Standard-Tools möglich. Das Vorgehen ist zwar fehleranfällig und aufwendig, kann aber grundsätzlich zum gewünschten Ergebnis führen. Handelt es sich aber um eine Anlage mit 50.000 Messstellen, von denen mehrere Tausend Messungen von Energie- und Medienströmen sind, wird die Aufgabe ungleich schwieriger. Denn nicht jede der Messstellen liefert Informationen, die für einen Energiebericht Relevanz besitzen und zudem ist die schiere Masse der Daten zu groß, um sie manuell ordnen zu können.

Es wird klar, dass hier ein strategisches Vorgehen gefragt ist: In einem ersten Schritt müssen die Messstellen strukturiert werden. Dazu ist es von entscheidender Bedeutung, die Metadaten in eine einheitliche Form zu bringen und die verschiedenen Konventionen auf eine allgemein gültige abzubilden. Ein weiterer elementarer Bestandteil ist es, die topologischen Informationen der Messstellen in eine standardisierte Form zu bringen. Erst wenn diese Daten einheitlich und weitestgehend normiert und somit vergleichbar sind, kann auf ihrer Basis ein automatisiertes Berichtswesen erstellt werden, in dem beispielsweise die Zusammenstellung der Energieberichte nach verschiedenen Aspekten algorithmisch und nicht mehr durch den Anwender händisch erfolgt. Langjährige Erfahrung und Know-how sind hierfür ebenso Voraussetzung wie die Nutzung einer entsprechenden technologischen Lösung.    

Damit die um Prozessdaten effizient nutzen zu können, ist nicht allein die Implementierung eines leistungsfähigen Werkzeuges notwendig. Darüber hinaus ist die Begleitung durch einen erfahrenen Partner empfehlenswert. Anbieter, die einen nachhaltigen Erfolg ihrer Kunden anstreben, geben schon bei der Entwicklung einer passenden Strategie praktische Hilfestellung. Die zweite Komponente ist die schon angesprochene Software. Benötigt wird ein leistungsfähiges Tool, das die vorliegenden Daten aufräumt, strukturiert und mittels algorithmischer Verfahren in Standardinformationen umwandelt. Bei der Auswahl eines Anbieters sollten Anlagenbetreiber sich also nicht mit einer modern anmutenden Nutzeroberfläche zufrieden geben, die lediglich die manuellen Tätigkeiten erleichtert. Wichtiger ist eine genaue Prüfung des angebotenen Leistungsspektrums, denn im besten Falle automatisiert die Software diese Tätigkeiten.

Die wichtigsten Fragen sind: Welche Funktionen bildet das System ab? Reichen diese aus, um die Wertschöpfung effektiv zu steigern? Wie skalieren Arbeitsaufwände, Fehleranfälligkeit, Performance und Nachvollziehbarkeit mit einer rasant wachsenden Anzahl von Messpunkten? Und steht ein erfahrener Partner zur Verfügung, der vor, während und nach dem Kauf unterstützend tätig wird, wenn es nötig ist? Nur wenn diese Fragen bejaht werden können, wird die Analyse der Prozessdaten gewinnbringende Erkenntnisse liefern. 

Zurück
Industriearbeiter analysiert mit der Software TeBIS die Prozessdaten einer Maschine
Die Analyse von Prozessdaten birgt ein großes Potenzial