Cenit Wenn die KI sehen und voraus denken kann
Anbieter zum Thema
KI-gestützte, kamerabasierte Prozessflows in Shop-Floor Umgebungen: Ein Echtzeit-Bilderkennungssystem in der Endmontage eines Unternehmens der Luftfahrtindustrie sorgt für einen weiteren Schritt in Richtung eines „digitalen Zwillings“ von Fertigungslinien.

Komplexe Automationsaufgaben und auch Vorhersagen für zukünftige Ereignisse im Produktionsumfeld setzen eine ausreichende Datengrundlage voraus. Heutzutage kommen dafür häufig auch Kamerabilder zum Einsatz. Denn Kamerasysteme sind überall einsetzbar und können – im Gegensatz zu herkömmlicher Sensorik – viele Ereignisse gleichzeitig betrachten. Für Automationstechniken und auch für Vorhersagen im Produktionsumfeld spielen vor allem zielgerichtete, kamerabasierte Echtzeitanalysen eine wichtige Rolle. Die visuelle Perzeption bietet dabei den Vorteil, bereits durch wenige Kamerasysteme ganze Produktionsprozesse modellieren zu können und in digitale Zwillinge zu überführen.
Auf Basis der bilderbasierten Datengrundlage wäre allerdings auch das Arbeitsverhalten von Menschen nachverfolgbar. Hierbei ist eine zielgerichtete, vollständige sowie irreversible Anonymisierung von Menschen Anonymisierung notwendig, um nicht mit entsprechenden Datenschutzvorgaben zu kollidieren. Eine solche Anonymisierungstechnik garantiert den unbegrenzten Einsatz von Kamerasystemen in jedem Industriekontext – insbesondere in Unternehmen mit hohen manuellen Arbeitsanteilen, wie beispielsweise der Luftfahrtindustrie. Die eingesetzte Technologie garantiert dabei eine uneingeschränkte Verwertbarkeit aller Aufnahmen – ohne Persönlichkeitsrechte zu verletzen.
Bildinformationen als Grundlage für digitalen Prozessflow
Wie dies in der Praxis aussieht, zeigt ein gemeinsames Industrieprojekt vom Softwarehaus Cenit und dem Hamburger KI-Spezialisten Synergeticon: Auf Basis von künstlicher Intelligenz (KI) arbeiten beide Unternehmen an der Umsetzung zuverlässiger Anonymisierungs- sowie Objekterkennungstechniken in der Endmontage eines Flugzeugherstellers. Im Zentrum steht das KI-gestützte, kamerabasierte Vision-System, das mittels visueller Objektdetektion Prozessereignisse darstellt. Das System konzentriert sich dabei vollständig auf Bewegungsabläufe von produktionsrelevanten Objekten, wie Werkzeugen, Transportgeräten oder mobilen Lagerregalen. Das Ergebnis: In Echtzeit visualisierte Materialflüsse auf einem Hallenplan, der teilautomatisiert vom Vision System generiert wird. Die Darstellung entsprechender Informationen wird per Dashboard übersichtlich zusammengefasst. Im Bereich der Logistik ist diese Transparenz von besonders hohem Wert für Materialflussanalysen und erhöht die Reaktionszeiten auf Abweichungen vom geplanten Prozess drastisch.
Wie funktioniert nun aber die KI, die als „intelligenter Kopf“ der Kamera-Systeme im Projekt agiert? Dafür lohnt ein genauer Blick ins Innere: Innerhalb der KI haben sich Verfahren des maschinellen Lernens am vielversprechendsten entwickelt. Die modernste und mit größtem Erfolg eingesetzte Schlüsseltechnologie sind künstliche, neuronale Netze (KNN). Modelle auf KNN-Basis per „supervised learning“ (das heißt überwachtes Lernen) zu trainieren, bedingt eine für das gegebene Szenario ausreichend große Datenbasis, die qualitativ annotiert sein muss. Dies bedeutet, dass händisch für jeden Dateneingang, der für den Lernprozess des KNN genutzt wird, ein Datentupel – bestehend aus Eingang und erwartetem Ausgang – existieren muss. Da diese Annotationen manuell erstellt werden und in hoher Anzahl vorliegen müssen, ist eine Umsetzung innerhalb dieses Verfahrens für Kamerasysteme sehr herausfordernd. In dem von Synergeticon entwickelten System werden daher Lernverfahren eingesetzt, die ohne entsprechende Annotation auskommen. Es kann also ein beliebiger, visueller Input genutzt und mit geringerem Aufwand verarbeitet werden. Der Grund dafür ist die bei der Modellierung des KNN verwendete Logik, bei der zwei gegeneinander lernende KI-Subnetze eingesetzt werden. Dabei entsteht ein Automatismus, der die Abhängigkeit von manuell annotierten Daten reduziert oder gänzlich überflüssig macht. Die Subnetze haben voneinander getrennte Trainingsziele, arbeiten aber auf einer gemeinsamen Datenbasis, wodurch sich effiziente Lernverfahren ergeben.
Aus der realen Welt in die digitale Welt
Nun kann die im Luftfahrt-Projekt von Cenit und Synergeticon eingesetzte KI aber noch Einiges mehr: Eines der aktuellen Ziele besteht darin, die Daten des Vision Systems in Beziehung mit bereits vorhandenen Systemen – wie etwa der Sensorik von Geräten und Maschinen – zu setzen, um tiefergehende Analysen und Erkenntnisse zu ermöglichen. Dies soll mit dem Aufbau einer offenen, semantischen Datenplattform gelingen – praktisch dem Gehirn der Produktionshalle, das Daten aus unterschiedlichen Quellen gemeinsam nutzbar macht. Gepaart mit den Informationen aus dem Vision System soll sich auf diese Weise ein digitales Abbild der Halle simulieren lassen. Die generierten Daten, können dann unter anderem dafür eingesetzt werden, den IST-Zustand der Produktion wiederzugeben und auf Basis von Simulationsmodellen Neuplanungen anzustoßen. Im Sinne der Predictive Maintenance können sie zudem dazu dienen, parallele Qualitätsprognosen zu erzeugen und somit die Langzeit-Performance von Geräten und Anlagen zu steigern. Alles in einem: eine intelligente Brücke, die mittels KI die reale mit der digitalen Welt verbindet und Unternehmen weiter blicken lässt.
:quality(80)/images.vogel.de/vogelonline/bdb/1740500/1740598/original.jpg)
Cenit
Simulation für robotergestützte Oberflächenprozesse
(ID:47143541)