Strategie Den Überblick behalten bei Industrie 4.0

Von Jörg Stahlmann

Anbieter zum Thema

Wie können Blechverarbeiter Industrie 4.0 nutzen? Warum kommen so viele Umsetzungen nicht in Schwung? Wie bekommt man Ordnung in das Dickicht von Angeboten, Empfehlungen und Versuchen?

Knackpunkt bei der Diskussion um Daten im Rahmen der Digitalisierung ist, dass man die Verwendung der Daten von Anfang an bedenken muss. Blindes Sammeln ist dabei genauso falsch, wie die Hoffnung auf neue Algorithmen, die wie von Geisterhand einen Datenberg in Unternehmenserfolge verwandeln.
Knackpunkt bei der Diskussion um Daten im Rahmen der Digitalisierung ist, dass man die Verwendung der Daten von Anfang an bedenken muss. Blindes Sammeln ist dabei genauso falsch, wie die Hoffnung auf neue Algorithmen, die wie von Geisterhand einen Datenberg in Unternehmenserfolge verwandeln.
(Bild: Consenses / HA Hessen Agentur GmbH - Jan Michael Hosan)

In den vergangenen Jahren entstanden im hohen Takt neue Buzzwords im Zusammenhang mit „digitalen Technologien“. Im Umfeld der Blechverarbeitung fällt auf, dass Lebenswelten oft erheblich auseinanderdriften. Einerseits schlich sich Whatsapp für die Gruppenkoordination in vielen Unternehmen ein, die Google-Spracherkennung erreicht eine erstaunliche Treffsicherheit bei der Eintragung von Terminen und Fahrzielen, der Werkzeugbau etabliert durchgängige CAD-CAM Anbindungen und produziert in Geisterschichten. Andererseits scheinen viele Digitalisierungsinitiativen den Schritt zur Umsetzung im Presswerk nur mühsam zu schaffen. KI-gestützte Methoden und aufwändige Analyseprojekte im technischen Umfeld werfen oft mehr Fragen und Probleme als Lösungen auf. Das Einrichten und Einstellen von Pressen und Presswerkzeugen ist weiterhin in den meisten Fällen noch immer ein sehr manueller Prozess. Eine zielgerichtete Digitalisierung erscheint hier oftmals utopisch.

Im Folgenden möchten wir Hintergründe dieser Widersprüche offenlegen und Hinweise für ein zielorientiertes Vorgehen zur erfolgreichen Digitalisierung geben.

Fachtagung „Mehr Effizienz im Presswerk“
Tipp

Presswerke sind eine Millioneninvestition. Entsprechend viel Output soll erbracht werden. Mit Blick auf die geforderte Qualität, Flexibilität sowie sinkende Losgrößen und Verfügbarkeiten gilt es, die Produktion für den steigenden Kostendruck fit zu machen. Die Fachtagung „Mehr Effizienz im Presswerk“ am 30. September 2020 in Sindelfingen zeigt, welche Potenziale in der Produktion ausgeschöpft werden können.

Mit dem Code „LESER“ 20 % Rabatt auf die Teilnahmegebühren sichern!

www.effizienz-im-presswerk.de

Im Fertigungsprozess prallen Interessen aufeinander

Im Zusammenhang von Industrie 4.0 / Digitalisierung herrscht ein gewisser „Kommunikationslärm“ in den Medien. Jeder Anbieter, jeder Verband priorisiert eigene Überlegungen nach oben und versucht, im Rahmen der aktuellen Goldgräberstimmung seine Leistungen digital-verpackt zu positionieren. In den vergangenen sieben Jahren haben wir unzählige Male gehört, dass man erst einmal Daten sammeln wolle, bevor man agiere. Ab dem ersten Tag waren gleichermaßen die Stimmen laut, dass man schon unzählige Datenfriedhöfe habe, aber nichts damit anfangen könne.

Knackpunkt bei dieser emotionalen Diskussion ist, dass man die Verwendung der Daten von Anfang an bedenken muss. Blindes Sammeln ist dabei genauso falsch, wie die Hoffnung auf neue Algorithmen, die wie von Geisterhand einen Datenberg in Unternehmenserfolge verwandeln. Die neueste Forderung, dass produzierenden Unternehmen gleich digitale Geschäftsmodelle entwickeln sollen ist in dem Kontext selten hilfreich.

Es ist unumgänglich, vorab zu durchdringen, welche Daten voraussichtlich hilfreich sein werden und wie sie genutzt werden sollen. Dafür haben sich während unserer Arbeit einfache Modelle entwickelt, das recht schnell Ordnung in diese Angebots- und Kommunikationsflut bringt.

Eine grundlegende Annahme hierfür ist, dass es in jedem produzierenden Unternehmen zentrale Produktionsprozesse gibt, in denen Material verarbeitet wird. Im Sinne der Digitalisierung ist die Frage, ob der Prozess inhouse umgesetzt werden muss oder ausgelagert sein kann, letztlich zweitranging.

Der Erfolg produzierender Unternehmen hängt an der effizienten Verarbeitung von Materialien. In vielen Projekten rund um Digitalisierung war es ungemein hilfreich diese Grundforderung in zwei Wirkungsbereiche zu unterteilen:

a) Dem primär logistisch-organisatorischen Bereich (Wann wird was in welcher Menge durch welches Verfahren bearbeitet?)

b) Dem primär technologischen Bereich (Wie sind die Prozesse und Verfahren geführt, wie erfolgt die Verarbeitung?)

Das IIoT-Uhrglasmodell unterteilt Unternehmen und Digitalisierungsangebote in organisatorisch (Nordseite) und technologisch (Südseite) geprägte Aufgaben, Kompetenzen und Werkzeuge. Der Fertigungsprozess liegt in der Mitte (Äquator) und wird als Brennpunkt verstanden.
Das IIoT-Uhrglasmodell unterteilt Unternehmen und Digitalisierungsangebote in organisatorisch (Nordseite) und technologisch (Südseite) geprägte Aufgaben, Kompetenzen und Werkzeuge. Der Fertigungsprozess liegt in der Mitte (Äquator) und wird als Brennpunkt verstanden.
(Bild: Consenses)

Für die Darstellung hat sich das Uhrglasmodell bewährt. Gegenüber anderen Modellen (Automatisierungspyramide oder RAMI oder ähnliches.) verdeutlicht dieses Modell drei Punkte, die sich in vielen Projekten als entscheidend herausstellten:

1) Die Produktionsanlage steht im Mittelpunkt und wird als Schlüsselkomponente verstanden.

2) Auf der „Nordseite“ des Produktionsprozesses sind logistisch-organisatorische Prozesse / Tools angesiedelt; die Breite nimmt jeweils zu, bis auf der ERP- / Cloud-Ebene Unternehmen aneinanderstoßen.

3) Auf der „Südseite“ des Prozesses sind technologische Prozesse und Werkzeuge angeordnet. Ausgehend von sehr spezifischen Einstellkompetenzen und Hilfestellungen nimmt die Breite zu, bis die physikalische / chemische Basis erreicht ist, die bei gleichen Prozessen für alle Unternehmen gelten muss.

Viele Missverständnisse im Umfeld von Industrie 4.0 und Digitalisierung lassen sich verhindern, wenn Erwartungshaltungen und Leistungsbeschreibungen anhand dieses Grundmodells kommuniziert / spezifiziert werden. Im Folgenden möchten wir das beispielhaft durchführen.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Segmentierte Sichtweise für den Umsetzungserfolg

Mit dem Uhrglasmodell lässt sich beispielsweise beschreiben, warum nur ein Bruchteil des Potentials von Predictive-Maintenance-Projekten umgesetzt werden kann. Während der Nutzen und die eigentliche Wartung als Planungsaufgabe wahrgenommen werden, liegen Ursache und Lösungskompetenz auf der technologischen (Süd)-Seite.

Auf der organisatorisch geprägten Nordseite dominieren Aufgaben rund um die „R der Logistik“  (ob 4, 5, 6 oder 7 „R“ sei dem Leser überlassen). Auf der Südseite stehen Methoden der Prozessbeherrschung im Fokus.
Auf der organisatorisch geprägten Nordseite dominieren Aufgaben rund um die „R der Logistik“ (ob 4, 5, 6 oder 7 „R“ sei dem Leser überlassen). Auf der Südseite stehen Methoden der Prozessbeherrschung im Fokus.
(Bild: Consenses)

Werden als Datenbasis (wie in den meisten Fällen) ausschließlich der Defekt von Teilen oder historische Wartungsdaten herangezogen, können sich Mitarbeiter mit entsprechend technischer Lösungskompetenz (Südseite) sich auf keine Datenbasis stützen. Daher erscheinen Modelle oft unsicher und nicht vertrauenswürdig.

Besser ist es, wenn für die Experten mit der Lösungskompetenz nachvollziehbare Daten bereitgestellt werden: Unserer Erfahrung nach sind das weniger Schadensinformationen, denn diese sind entweder nicht aussagekräftig oder zu speziell. Viel besser ist es, die ursächlichen Belastungen brauchbar aufzubereiten und darzustellen.

So können Kernauslöser für Ausfälle gezielt eliminiert werden, was zu oft unerwarteten Einsparungen führt. Mit dem dabei aufgebauten Wissen lassen sich physikalisch verständliche Ausfallmechanismen darstellen. Die vorausschauende Wartungsplanung folgt also auf die Ausfallreduktion und das bessere Verständnis bisher unbekannter Zusammenhänge.

Daten(-verarbeitung) nötig für erfolgreiche Umsetzungen

Zumindest eine Dimension dieser Aufgabe möchten wir im Rahmen dieses Artikels kurz anreißen, weil genau hier offensichtlich wird, was zwingend Aufgabe in Digitalisierungsprojekten sein muss:

Im Uhrglasmodell treten in Richtung ERP, Big-Data und Cloud (Nordpol) und physikalisch-chemischer Grund-lagen (Südpol) typischerweise aggregierte Daten auf. Rund um den Prozess in der Mitte zwischen den beiden Polen dominieren kurzfristige, zumeist flüchtige Daten. Die Zeitachse ist bei genauerer Betrachtung eindrucksvoll: Im Bereich Messtechnik und Steuerung sind essenzielle Effekte in der Größenordnung von Milli- oder Mikrosekunden verborgen, Mitarbeiter der Produktion müssen in Minuten- / Stundenrhythmus agieren. In Richtung der strategischen Ebenen an den „Polen“ werden mit Perspektiven über Jahre Entscheidungen getroffen.

Die sichere Zuordnung von Daten aus verschiedenen Bereichen des IIoT-Uhrglases ist infolge der unterschiedlichen Datentypen und Zeitbasen immer eine Kernaufgabe, die bei jedem Digitalisierungsvorhaben gemeistert werden muss.
Die sichere Zuordnung von Daten aus verschiedenen Bereichen des IIoT-Uhrglases ist infolge der unterschiedlichen Datentypen und Zeitbasen immer eine Kernaufgabe, die bei jedem Digitalisierungsvorhaben gemeistert werden muss.
(Bild: Consenses)

Um den gewünschten Nutzen aus Daten / Digitalisierung zu schlagen, müssen:

1) Regeln gefunden werden, mit denen eine sinnvolle Aggregation der Mess- und Automatisierungsdaten erfolgt.

2) Daten eine Qualität aufweisen, mit der eine sichere Zuordnung untereinander möglich und sinnvoll ist.

Datenqualität richtig beschreiben

Vorhandene Daten aus Steuerungen oder Überwachungssystemen zu nutzen, um systematische Auswertungen zu erzeugen scheint verlockend, um die Brücke zu den Experten der „Südseite“ zu schlagen. Ähnlich zu bekannten „Eh’da-Kosten“ wird hier die Hoffnung auf kostengünstige „Eh’da-Daten gesetzt“. Die Erfahrung zeigt, dass hier eine sensible Prüfung der Datenqualität immer (im Sinne von ausnahmslos) dringend angeraten ist. Daten, die beim Steuern abfallen oder bei der Erstellung von Hüllkurven erzeugt werden, sind erfahrungsgemäß nur in seltenen Fällen geeignet für physikalisch nachvollziehbare Auswertungen. Ausgewerteten Daten ist im Allgemeinen nicht mehr anzusehen, wie belastbar sie sind: Das birgt große Risiken.

Weil die Risiken der Falschinterpretation nicht zu unterschätzen ist, auch hier eine kurze Sammlung von Hinweisen, denen man mindestens nachgehen sollte, bevor in Datensammlungen investiert wird:

 Genügt der Datenumfang?

o Zeitreihen sind aus Plausibilisierungsgründen immer Einzelwerten vorzuziehen

 Erscheinen die Daten physikalisch plausibel?

o Gibt es Vorzeichenwechsel (beispielsweise bei einem deutlichen Schnittschlag)?

o Ist das Schwingen des Systems sichtbar (beim Kuppeln, Schneiden)?

o Stimmen die Abfolgen von Werkzeugeingriffen (Blechhalter, Schneiden, Prägen)?

o Sind Exzentrizitäten plausibel (einlaufseitige Belastung)?

 Genügt die Abtastrate?

o Mit welcher Frequenz werden die Daten gespeichert?

o Ist die Abtastrate mindestens doppelt so hoch wie der kürzeste Signalanteil (Nyquist)?

 Sind Filter oder Datenverarbeitungen vorgeschaltet?

o Entspricht die Dynamik der Erwartung?

o Eilen Peaks eines Kanals einem anderen vor / nach; ist das plausibel?

o Verhalten sich Schwingungen harmonisch oder treten unerklärbare Artefakte auf?

 Lassen sich Daten zuordnen, verarbeiten?

o Können Daten aus verschiedenen Quellen auf Niveau der Abtastrate zugeordnet werden?

o In welchem Format liegen Daten vor, welche Verarbeitungswerkzeuge werden eingesetzt?

Je nach Anwendungsfall wird es spezielle Punkte geben, auf die man zusätzlich achten sollte. Für die Klärung dieser Randbedingungen braucht es weder Auswertungen großer Datenmengen noch umfangreiche IT-Projekte. Die Methode des „genauen Hinschauens“ kann oftmals klären, was auf Basis der „Eh’da“-Daten möglich sein wird und wo Grenzen liegen. Mit geeigneten Systemen und Sensoren lassen sich in einfachen Versuchsreihen unmittelbar Potenziale und Grenzen aufdecken. Schließlich gilt auch im Umfeld der Datenverarbeitung die einfache Wahrheit, dass nur auf einer guten Grundlage gute Ergebnisse entstehen können.

Die gute Nachricht zum Schluss

Nach Klärung von Zielsetzung, Datenqualität und grundsätzlichen Aggregationsregeln werden Digitalisierungsprojekte insbesondere in der Blechumformung sehr erfolgsversprechend, weil eben ein gewaltiges Potenzial in den manuell geprägten Prozessen freigesetzt werden kann. Für die erfolgreiche Realisierung ist es dann entscheidend, dass im Sinne von „Separation of Concerns“ Aufgaben dort abgewickelt werden, wo die entsprechende Kernkompetenz besteht. Während die Handhabung von ERP-MES und BDE Daten grundsätzlich IT-Knowhow voraussetzt, bedarf die Aggregation technischer Daten eher Kompetenz im Bereich Prozess, Messtechnik und Realtime-Verarbeitung, wie es beispielsweise die Consenses GmbH vereint.

Für den Standort Deutschland bedeutet diese Erkenntnis, dass durch Verknüpfung notwendiger Expertise aus Nord- und Südseite des IoT-Stundenglases erhebliche Standortvorteile herausgearbeitet werden können, die nachhaltig wirken.

* Dr.-Ing. Jörg Stahlmann ist zuständig für Marketing und Vertrieb bei der Consenses GmbH in 64380 Roßdorf, Tel.: (0 61 54) 6 08 75-13, stahlmann@consenses.de

(ID:46641684)