Wir nutzen matomo zur anonymisierten Reichweitenerfassung. Mehr Informationen, sowie eine Option zum Opt-out, erhalten Sie in unserer Datenschutzerklärung.

magBLOG

OT-Daten in der IT-Welt verarbeiten – am Beispiel von Predictive Maintenance

Einerseits werden Produktionsanlagen mit fortschreitender Digitalisierung immer „smarter“, andererseits kennen wir aus unzähligen Anwendungsfällen die Chancen und Möglichkeiten, wie man aus (Maschinen-) Daten, die sowieso anfallen, echte Mehrwerte schaffen kann. Es drängt sich also auf, die Welt der Operational Technology (OT) und Prozessnetze näher mit der klassischen IT zusammen zu bringen.

Um diesem sehr allgemeinen Einstieg etwas Leben einzuhauchen, nutzen wir ein einfaches, plakatives Beispiel und zoomen in verschiedene Details. Stellen wir uns einen Betrieb vor, die Holz1 GmbH. Holz1 ist ein Full-Service-Spezialist mit Einrichtungshintergrund – vorn werden Bäume eingefüllt, hinten kommen Massivholzmöbel feinster Qualität heraus.

Ein Problem im Fertigungsprozess könnte sein, dass abstumpfende Fräsköpfe unsaubere Kanten hinterlassen, was dem hohen Qualitätsanspruch natürlich nicht gerecht wird. So müssen immer wieder Werkstücke aussortiert werden (Materialkosten, Verzögerung, man kennt’s). An dieser Stelle ließen sich schnell weitere (und dramatischere) Beispiele in der „Industrie 4.0“ finden: Defekte Schweißpunkte bei einer Kfz-Karosserie oder zu wenig Drehmoment, mit dem die Radmuttern angezogen wurden. Aber wir bleiben erst mal bei Holz1 und ihren CNC-Fräsen.

Wie könnte der Ausschuss durch verschlissene Werkzeuge also effizient reduziert werden?

Vorschlag: Austausch der Werkzeuge nach X Vorgängen – egal ob sie „durch“ sind oder noch eine Weile halten würden. Denn mit der Zeit wissen die Holz1-Fachleute ja, wie viele Fräsminuten oder -meter so ein Schaftfräser überlebt.

Sie machen also „Predictive Maintenance“ (sprich: die Voraussage, wann ein Bauteil gewartet/getauscht werden muss) nach Bauchgefühl. Oder sie verfolgen eine vorbeugende Instandhaltungsstrategie, indem sie schlicht periodisch Teile tauschen, unabhängig davon, wie lang sie noch halten würden („Montag ist Neuer-Sägeblatt-Tag“).

Effizienter und effektiver wäre es allerdings, das Bauchgefühl mit belastbaren Daten aus IT-, OT- und IoT-Geräten anzureichern und daraus eine verlässliche, objektive Kenngröße zu machen.

Sprich mit mir

Wie kommen wir nun an diese Daten? Dafür hat die „smarte“ Maschine Sensorik an Bord, die laufend Messwerte abnimmt (Geschwindigkeiten, Temperaturen, Widerstände, Kräfte etc.). Diese werden von einem Programmable Logic Controller (PLC) erfasst.

Messgeraet(Beispiel-Messgerät, Quelle: https://en.wikipedia.org/wiki/File:Siemens_sps_logo_8_12-24_RCE-03.jpg)

Diese Messwerte könnten jetzt in Splunk/Elastic/Humio/you-name-it weiterverarbeitet werden. Denn möglicherweise liegen sie (im Worst Case) nur als Spannung auf einem analogen Ausgang an oder werden als Datum in einem OT-Protokoll übertragen, was eine Lösung aus der IT-Welt noch nie gesehen hat und nicht interpretieren kann.

Das Interpretieren der Daten selbst kann ebenfalls eine Herausforderung sein, gerade wenn ein Team aus der IT-Welt erst lernen müsste, mit diesen Daten umzugehen. Welche Werte sind in unserem Shop Floor üblich? Welche optimal? Welche Abweichungen sind bedenklich? Zu jedem Datenpunkt müsste es eine ausführliche Dokumentation geben – und wer investiert schon gern Zeit in Dokus?

Als drittes Dilemma sind noch die Datenmengen zu nennen, die in der Auswertungsebene aufschlagen werden: Nehmen wir an, unser einzelner Beispiel-Fräskopf liefert lediglich Temperatur, Drehmoment und Vorschub (also die „Geschwindigkeit im Holz“). Und das alle 200 ms. Allein damit kommen wir schon auf 15 Messwerte pro Sekunde, die erfasst, korreliert und bewertet werden wollen. Spinnen wir das Beispiel weiter zu allen möglichen Arbeitsschritten und Maschinen (-Teilen), rauchen in der IT nicht nur die CPUs, sondern auch die Taschenrechner im Einkauf für die Splunk-Lizenzen.

Wir haben also drei Herausforderungen zu meistern:

  • Verfügbarkeit der Daten/Messwerte in der IT-Umgebung (Schnittstellen/Übersetzung)
  • Interpretation der Werte durch fachfremde Teams (Wissen/Erfahrung)
  • Volumen und Frequenz der Messdaten sinnvoll eindampfen (Effizienz)

Dolmetscher

Zum Glück gibt es Technologie, die für alle drei Dilemmas Linderung verspricht – und das, ohne Kompromisse in Sachen Sicherheit (im Sinne von „Security“ und „Safety“) eingehen zu müssen. Diesen Aspekt haben wir bisher völlig ausgeklammert, denn Lösungen, die die Sicherheit schmälern, fassen wir gar nicht erst an. „Security by Design“ ist hier das Zauberwort. Und ein wichtiges Tool für die Umsetzung von IEC 62443.

Arendar Schaltschrank(Bildquelle: arendar.io)

Wir platzieren also einen Übersetzer zwischen IT- und OT-Welt: Beispielsweise den ARENDAR („Automatic Rapid Engagement Non-invasive Data Aggregator & Retriever“). Dieser stellt einen gewollten Medienbruch dar, fungiert also nicht als Router und kann dadurch per Definition kein Einfallstor in das Prozessnetz und die Produktions-IT sein.

arendar 1(ARENDAR als Dolmetscher zwischen Prozess- und IT-Netz)

Der ARENDAR ermöglicht uns, die Messwerte unserer beispielhaften CNC-Fräse einzusammeln (in allen gängigen Sprachen der Prozesswelt wie ProfiNet, OPC-UA, IO-Link, analoge/digitale Eingänge etc.), zu verarbeiten und (die Ergebnisse dessen) in einem für die IT-Lösungen sinnvollen Protokoll und verständlichen Format (z. B. MQTT, HTTP, ODBC oder CSV) direkt an Elastic, Splunk & Co. weiterzugeben. Oder an beliebige andere Services, die damit sinnvolle Mehrwerte produzieren können.

Auf der Empfänger-Seite müssen wir also nicht mehr zig Messwerte pro Sekunde empfangen, verdauen und interpretieren. Das machen die ARENDARe. Die Data-Analytics-Teams bekommen durch diesen Edge-Computing-Ansatz z. B. nur noch einen prozentualen Score, der in einer grün/orange/roten Ampel enden könnte.

arendar2(Daten(vor)verarbeitung/Edge Computing in einem ARENDAR )

Hier haben wir also nicht nur die Möglichkeit, auch die Datenmenge in der Analyseplattform zu beeinflussen und damit deren Kosten im Zaum zu halten, sondern auch eine Entkopplung der Skills: Prozess-Experten werten die Daten im ARENDAR aus (mithilfe des grafischen Editors im WebUI) und stellen die Erkenntnisse der IT zur Verfügung. Damit können dann Optimierungsoptionen identifiziert werden, ohne dass über jeden Datenpunkt und jeden Messwert entsprechendes Tiefen-Wissen vorhanden sein muss.

Wenn also demnächst die Ampel von Grün auf Gelb springt, wird der Fräskopf getauscht, bevor das Holz leidet.

Die Verheiratung von Prozess- und Office-IT schreitet immer weiter fort, sodass es nicht mehr ausreicht, nur einen dieser Bereiche gut zu kennen. Auch die speziellen Herausforderungen, die mit einer Verbindung dieser Welten einhergehen, sind enorm. Als magellan haben wir ein starkes Team und top Partner an Bord, mit denen wir die unterschiedlichsten Anforderungen angehen können. Von der LAN/WLAN-Infrastruktur mit Layer7-Sicherheit und Micro-Segmentierung an jedem Port über garantiert sichere und kontrollierte Wartungszugänge bis zur „Digitalisierung“ von Maschinen, die von IP noch nie etwas gehört haben.

Aber dazu gerne mehr in späteren Beiträgen.

Autor: Fabian Nöldgen
Head of Innovation Lab
magellan netzwerke GmbH

 

News

Das FERNAO-Netzwerk

Durch den Zusammenschluss der Unternehmen profitieren Kunden von ganzheitlichen IT-Lösungen aus einer Hand – professionell und spezialisiert auf Ihre Projekte abgestimmt.

Folgen Sie uns:
facebook twitter youtube linkedin xing instagram