Der Digital Twin (DT) – die Königsdisziplin für den übergreifenden Umgang mit Daten – steht aus Expertensicht nach wie vor am Anfang: „In einzelnen Bereichen entstehen heute Teillösungen des Digital Twin, das ist allerdings nur ein erster Schritt in Richtung durchgängiger Lösungen“, konstatiert Automotive-Geschäftsfeldleiterin Petra Foith-Förster vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA. Heute sei eine Durchgängigkeit von der Entwicklung, über die Produktion, den Lebenszyklus bis zum Recycling, um Daten aus allen Lebenszyklusphasen gewinnbringend zu nutzen, immer noch Zukunftsmusik.
Echter digitaler Zwilling nicht in Sicht
Noch ist die Durchgängigkeit zwischen den Systemen also „löchrig“. „Auch künftig werden Daten weiter in den Systemen bleiben, es ist unsinnig, ein komplett neues IT-System einzuführen. Stattdessen könnten Cloud-Plattformen unter bestehende Systeme geschoben werden“, meint Foith-Förster. DT-Projekte haben es jedoch schwer, weil ihr ROI nicht ohne weiteres zu rechnen ist. „Es gibt keinen omnipotenten Digital Twin, sondern lediglich einzelne Ausprägungen“, meint auch Walter Heibey, Partner bei MHP. Positive Nutzungsbeispiele sieht er vor allem auf der Engineering-Seite, zum Beispiel beim Thema Simulation.
Gehe man in Richtung Produktion, werde es schon schwieriger. Hier könne der DT dazu dienen, die Beschreibung von Anlagen oder Anlagenzuständen zu entkoppeln. Ein Beispiel: Jeder Roboter, jede Maschine verbraucht Energie. Doch diese Daten werden jeweils unterschiedlich bezeichnet, es sei deshalb schwierig, einheitlich darauf zuzugreifen. „Auch wenn wir vielleicht gelöst haben, wie wir an die Daten in der Produktion herankommen, wissen wir nicht immer, was sie bedeuten. Dafür ist eine Entkopplungsschicht nötig, um Daten standardisiert in der Cloud zu verarbeiten“, sagt Heibey.
Datendurchgängigkeit lässt auf sich warten
Konvergenz bedeute hier, dass nicht nur der Zugriff auf Daten, sondern auch deren Interpretation standardisiert werden kann. Das Konsortium der Industrial Digital Twin Association arbeitet derzeit daran, einen Standard auf Basis der Companion Specs von OPC-UA voranzutreiben. „Diese semantische Erweiterung würde sicherstellen, dass zum Beispiel der Energiewert immer gleich aussieht“, so Walter Heibey.
Dazu gehört auch die Definition, in welcher Einheit und Frequenz ein Wert gemessen wird. Allzu lange wird es wohl nicht mehr dauern, bis die Verwaltungsschale in der Praxis ankommt. „In den nächsten ein, zwei Jahren werden wir konkrete Ansätze sehen: Sonst wird die Verwendung von Daten insbesondere in der Cloud ein Problem, das kann auch der beste Data Lake nicht verhindern“, meint Heibey. In welcher Zeitskala entsprechende Lösungen dann über die Werke ausgerollt werden, sei allerdings schwer einzuschätzen. Dennoch ist diese Entwicklung unabdingbar, glaubt der Experte: „Der Pain Point ist überall gleich: Man braucht die Beschreibung dieser Daten“.
Audi setzt auf virtuelle Prototypen
Audi beispielsweise beschäftigt sich bereits in mehreren Projekten mit dem Digital Twin. „Im Bereich der Planung führen wir die Prozess-Workshops online mit virtuellen Prototypen und Fertigungszellen durch“, berichtet Jürgen Glaab, Data Driven Production / Supply Chain beim Ingolstädter OEM. Dazu nehme man die Fertigungslinien und die Halleninfrastruktur als Teil des Digitalen Twins durch 3D-Scans auf. Die virtuellen Prototypen werden aus dem PLM genutzt. „Als Grundlage für die Durchgängigkeit setzen wir die Projekte auf der DPP, der Digitalen Produktionsplattform, um. Die DPP ist eine Cloud-Infrastruktur der Volkswagen AG, die leicht skaliert und die Verbindung zwischen Entwicklung, Planung, Produktion und Logistik darstellt“, sagt Glaab. Das ermögliche, die Prozesse End-to-End umzusetzen, wie zum Beispiel die Arbeitsfolgen aus den Prozess-Workshops an die Fertigungssteuerung zu übergeben.
„Die Ergebnisse aus der Fertigung werden an die nachfolgenden Prozesse weitergeben und dienen als Basis für Data Analytics“, erläutert Glaab weiter. Auch Tier One Supplier Bosch setzt auf den DT. Das ist auch Teil der Nachhaltigkeitsstrategie, denn man ist sich sicher, dass auf Basis von digitalen Zwillingen Produktionssysteme ressourcenschonender geplant, entwickelt und erprobt werden können. Doch die Frage, auf welchen Systemen die digitalen Zwillinge abgebildet werden könnten, ist noch nicht wirklich beantwortet: „Es findet ein Konkurrenzkampf unter anderem von PLM- und großen Plattformanbietern statt, zudem bringen auch kleinere Hersteller und Startups Teillösungen an den Markt“, so Petra Foith-Förster. Es werde aber wohl nie die eine Lösung geben. Die größte Hürde liegt derzeit auch aus ihrer Sicht noch an mangelnden Standards und Normen, zudem fehlt auch die Einigung auf standardisierte Schnittstellen zwischen den Systemen.
Ist Predictive Maintenance schon im Einsatz?
Zu den derzeit häufigsten Einsatzszenarien in der Produktion zählt die virtuelle Inbetriebnahme, berichtet Petra Foith-Förster. Mittels DT kann zum Beispiel die Einrichtung einer Anlage digital simuliert werden, um die Anfahrzeiten so kurz wie möglich zu halten. So lässt sich zudem das Austauschen von Werkzeugen beschleunigen. Eine vorab trainierte KI kann zudem in einer Simulationsumgebung dafür sorgen, dass ein Roboter seine Aufgabe schon beherrscht, bevor er sie durchführen muss. Andere datengebundene Ansätze zum Beispiel rund um AR/VR sind weiter im Aufwind, das liegt an immer mehr funktionalen und sicheren Lösungen, um remote Wartung umzusetzen. So kommen im Problemfall insbesondere in der Instandhaltung per Datenbrille und App externe Experten hinzu oder dreidimensionale CAD-Pläne werden zur Anleitung genutzt.
Gerade bei Predictive Maintenance, dem wohl bekanntesten KI-Use-Case in der Produktion, bleibt es bisher noch bei Leuchtturmprojekten und Proofs of Concept. Den ROI zu bestimmen, ist nicht einfach. „Es fällt den Unternehmen schwer, die Use Cases zu skalieren, sobald es um eine andere Maschine geht, ist es gleich ein anderes Szenario. Das macht es schwer, die Lösungen in die Breite zu bringen“, berichtet Heibey. Auch hier spiele die semantische Entkopplung eine wichtige Rolle. Um KI-Analysen am Edge zu fahren, sind zudem spezifische Hardware-Lösungen und Gateways erforderlich. Die dafür nötige Rechenperformance am Edge ist teuer und lohnt sich nur dort, wo der Nutzen klar nachgewiesen ist. Das ist nach wie vor insbesondere in der visuellen Qualitätsinspektion der Fall.
Elektromobilität könnte Digital Twin pushen
KI und Bildverarbeitung auf Basis des DT lohnen sich auch für die Arbeit mit Bauteilen in verschiedenen Formen. In der Autoindustrie werde das Thema vor allem bei Prozessen und Anläufen interessant, die eine hohe Varianz haben, meint die Fraunhofer-Expertin: „Dass Roboter auf variable Bauteile reagieren müssen, ist bisher nicht typisch. Allerdings könnte sich das mit der weitergehenden Einführung anderer Antriebe ändern“. Die Forschenden beschäftigen sich zum Beispiel mit dem DT für die Batteriezellenfertigung. Der Fokus liegt darauf, die Datenkette im PLM-System abzubilden, um die Daten für das Recycling nutzen zu können – eine komplexe Herausforderung.
Nachholbedarf für die Unternehmen sieht Walter Heibey bei der Datenstrategie in der Fertigung: Hier sei es wichtig, auch jenseits von KI die Daten und ihre Semantik aus dem Knowhow der Produktionsexperten heraus sauber zu erfassen und mehr Expertise im Umgang mit Daten aufzubauen. „Schon aus dem Prozesswissen können Daten kontextualisiert und kategorisiert werden: Eine Zeitreihe von Daten allein nutzt nichts, es muss auch klar sein, was im Prozess passiert“, sagt Walter Heibey. Diese Vorarbeit sei insgesamt unabdingbar.