Ekkehard Brümmer und Martin Ruskowski stehen vor einem Werbebanner

Twin4Trucks Projektleiter Ekkehard Brümmer (l.) und Prof. Dr. Martin Ruskowski, Vorsitzender der Tech-Initiative SmartFactoryKL: „Es geht darum, diesen Schritt raus aus der Forschung, rein in die Praxis zu wagen." (Bild: DFKI, SmartFactoryKL)

Herr Brümmer, klären Sie uns mal auf: Was steckt eigentlich hinter dem Projekt Twin4Trucks?

Brümmer: Über allem steht das Thema Datendurchgängigkeit. Kern des Projekts Twin4Trucks ist die Entwicklung eines übergreifenden Systems für die digital vernetzte Produktion von Nutzfahrzeugen. Das bedeutet, dass wir aus vereinzelten Datennutzungen, die wir schon betreiben, ein System über sämtliche Produktionsprozesse hinweg entstehen lassen. Die drei Schwerpunkte sind die eigentlichen Montageprozesse, die Materialversorgung und die Qualitätssicherung.

Herr Ruskowski, welche Rolle nimmt das DFKI beziehungsweise die SmartFactoryKL ein?

Ruskowski: Unser Fokus liegt darauf, die Enden des digitalen roten Fadens zusammenzuführen. Dabei steht die Frage im Vordergrund, wie man aus Daten von verschiedenen Maschinen und Gewerken ein Backbone herstellen und gleichzeitig aus den Daten auch mit KI-Methoden Auswertungen erstellen und entsprechende Schlüsse ziehen kann. Ein Beispiel ist die lokale Qualitätskontrolle, bei der mit Bildverarbeitung Qualitätsdaten erfasst werden und so der Werker bei seiner Arbeit unterstützt wird. Ein anderes Beispiel ist die Lokalisierung mit der Frage: Wie kann ich automatisiert herausfinden, wo sich Bauteile befinden, ohne jedes Mal manuell einen Barcodescanner bedienen zu müssen? Dies ist zudem sehr fehleranfällig. Und letztlich geht es uns auch darum, diesen Schritt raus aus der Forschung, rein in die Praxis zu wagen. Denn die Realität in der Produktion ist deutlich komplexer, es sind viel mehr Detailprobleme zu lösen als in einer Laborsituation.

Welche Pain Points in Sachen Datendurchgängigkeit haben Sie am Daimler-Truck-Standort Wörth in den vergangenen Jahren in der Fertigung festgestellt?

Brümmer: Der Standort Wörth ist unser Kopfwerk, die größte Lkw-Produktion, die wir haben. Daher ist dies auch der Ort, an dem wir Innovationen zuerst ausprobieren, da sie dort auch gleich den größten Effekt auf die Prozesse haben. Wir haben mittlerweile schon an vielen Stellen digitale Lösungen am Start, die uns bereits große Mehrwerte liefern. Aber es gibt auch im Werk Wörth noch viele Orte, an denen händische Prozesse zwischengeschaltet sind, die einerseits einen hohen Aufwand bedeuten, nicht wertschöpfend sind und bei denen andererseits ein gewisses Fehlerpotenzial vorhanden ist.

Haben Sie ein Beispiel für solch einen Prozess?

Brümmer: In der Fertigung haben wir Schraubvorgänge, bei denen der Werker mit einem händischen Scan dafür sorgt, dass die richtigen Schaubdaten auf dem Schrauberwerkzeug erzeugt werden. Mit der von uns geplanten Lösung soll ein Ortungssystem Produkt und Werkzeug automatisch verheiraten, sodass der nicht wertschöpfende Handlingvorgang – in dem Fall der manuelle Scanvorgang – aus der Rechnung eliminiert wird. Zugleich entsteht eine absolute Datensicherheit, da die exakte Ortung und Zuordnung zu einer eindeutigen Datenverknüpfung führen. So kommen wir durch die Vernetzung der Informationen zu einer viel höheren Robustheit der Produktionsprozesse. Mit Blick auf die Datendurchgängigkeit geht es uns zudem darum, einfach mal mit den gewonnenen Daten zu spielen, Verknüpfungen zu finden, die uns zu Ergebnissen führen, die heute eben nicht offensichtlich sind oder die nur durch eine gezielte Analyse gefunden werden können. Das ist das, was wir uns vom digitalen Zwilling im Kern erhoffen.

Auf einen Blick: Was ist ein digitaler Zwilling?

Ein digitaler Zwilling in der Automobilindustrie ist eine virtuelle Repräsentation eines physischen Fahrzeugs oder einer Anlage. Diese virtuelle Darstellung wird durch die kontinuierliche Erfassung und Analyse von Daten aus dem realen Fahrzeug oder der Anlage erstellt. Der digitale Zwilling ermöglicht es, das Verhalten, die Leistung und den Zustand des realen Objekts in Echtzeit zu überwachen, zu simulieren und zu prognostizieren. Dadurch können Hersteller und Betreiber verschiedene Szenarien testen, Fehler vorhersagen und Wartungsmaßnahmen optimieren, um die Effizienz zu steigern und Ausfallzeiten zu minimieren. Mehr Infos hier.

Wie stark ist in der Automobilindustrie – speziell in der Fertigung – das Problem von Datensilos vorhanden?

Ruskowski: Es gibt aktuell entweder die Sicht auf die Produktionsanlagen oder auf das Produkt. Hier einen Transfer zwischen beiden Sichten herzustellen ist die große Aufgabe. Momentan ist es meistens so, dass sich ein Mitarbeiter an ein Messgerät setzt und für ein bestimmtes Fertigungsereignis in der Datenbank einen Datenpunkt heraussucht und am Ende alles manuell zusammenführen muss. So wird die theoretische Verfügbarkeit der Daten durch das praktische Vorgehen – also das manuelle Heraussuchen – begrenzt. Das ist das grundsätzliche Problem, seit wir von Industrie 4.0 sprechen: Man hat Daten erfasst, die dann aber in einem geschlossenen System, dem angesprochenen Datensilo, kontextlos abgelegt werden.

Und das ist heute immer noch so?

Ruskowski: In weiten Teilen der Industrie auf jeden Fall. Was wir brauchen, sind universelle Zugangsmöglichkeiten und Schnittstellen. Und genau daran forschen wir. Eine zentrale Idee dabei ist die der Verwaltungsschale, die einen universellen Zugang zu Daten überhaupt erst möglich macht. Dabei geht es zunächst gar nicht darum, zu wissen, was die Informationen bedeuten, sondern darum, an die Daten überhaupt heranzukommen. Als Basis braucht es eine einheitliche Schnittstelle sowohl für die Daten aus der Maschine als auch für die des Produktes selbst.

Das ist das Ziel des Digital Foundation Layers wie im Beispiel des Daimler-Truck-Werks in Wörth?

Ruskowski: Korrekt. Zunächst einmal braucht es eine systemunabhängige, zentrale Datenablage, auf der ich alle relevanten Informationen aus den Produktionssilos zusammenziehe. Damit meine ich alles an PLM, ERP oder die Messsysteme an den Anlagen, deren Daten dann in einem grundlegenden Backbone – der Foundation – zusammenlaufen und mit denen ich dann universell arbeiten kann. Das ist natürlich ein weiter Weg, aber auch der weiteste Weg fängt mit kleinen Schritten an.

Martin Ruskowski
Zitat

„Es gibt aktuell entweder die Sicht auf die Produktionsanlagen oder auf das Produkt. Hier einen Transfer zwischen beiden Sichten herzustellen ist die große Aufgabe."

Martin Ruskowski, SmartFactoryKL & DFKI
(Bild: SmartFactoryKL)

Wie herausfordernd ist es für eine entsprechende Dateninfrastruktur, interne und externe Datenquellen sinnvoll miteinander zu verknüpfen?

Brümmer: Das ist sicherlich der entscheidende Punkt, an dem wir aktuell stehen. Wir versuchen zunächst, die Daten derart zu verknüpfen, dass wir sie in einem nächsten Schritt wirklich auswerten und nutzen können. Es geht darum, diesen Foundation Layer zu beschreiben und ihn teilweise zu erweitern. Danach kommt die spannende Frage auf uns zu, wie wir Datenräume schaffen, in denen wir Informationen austauschen. Das ist sicherlich eine Frage für die gesamte Autoindustrie und darüber hinaus. Jetzt jedoch geht es zunächst um die Datenverknüpfung, aber auch um die Datenerzeugung. Die Frage, ob es die benötigten Daten überhaupt schon gibt, sollte man nicht unterschätzen.

Sie spielen auf das Thema 5G an?

Brümmer: Genau. Ich erwähnte ja bereits das Thema Ortung, mit dem wir uns an diversen Stellen beschäftigen, aber auch 5G nimmt in unserem Projekt eine wichtige Rolle ein. Wir fragen uns, welche Netzwerklösung ist eigentlich die richtige, um Massen an Daten zu erzeugen, sie latenzfrei weiterzugeben und letztlich auf der Datenplattform zusammenzuführen.

Wie integrieren Sie Ihre Lieferanten in solch ein komplexes Vorhaben?

Brümmer: Schon von Anfang an wussten wir, dass das Projekt ein riesiger Elefant werden würde, den man in Scheiben schneiden muss. Deswegen haben wir uns bewusst dazu entschieden, das interne Datenhandling in den Vordergrund zu stellen. Freilich haben wir im Blick, was bei Initiativen wie Catena-X passiert und denken bei Twin4Trucks mögliche Anschlussstellen, soweit es geht mit. Aber das wäre ein zweiter, dritter Schritt, den wir nicht vor dem machen sollten, der jetzt ansteht.

Sprechen Sie mit den Kollegen von Catena-X?

Brümmer: Den Kontakt gibt es, vor allem über die Pkw-Kollegen von Mercedes-Benz, mit denen wir zusammen als einstige Daimler AG in das Projekt gestartet sind. Darüber hinaus gibt es Austausch mit Gaia-X und allen anderen Projekten, die im Kontext des Konjunkturpakets 35c stehen. Und es gibt eine Initiative zusammen mit dem DFKI und der SmartFactory KL, in der wir explizit einzelne Projekte auswählen, die sehr nah an den Fragestellungen rund um Datenraum und Datenaustausch dran sind.

Datenstringenz über verschiedene Gewerke beziehungsweise die Supply Chain als Ganzes herzustellen, geht nicht ohne Cloud. Auf welche Infrastruktur setzen Sie im Projekt Twin4Trucks?

Ruskowski: Grundsätzlich muss man konstatieren, dass im Industriekontext die Begrifflichkeiten häufig durcheinandergeraten. Viele sprechen von Cloud und Edge Computing, aber jeder versteht etwas anderes darunter. Wir haben dafür einen neuen Begriff definiert: die Industrial Edge Cloud. Im Prinzip geht es hier um den Transfer von verschiedenen Cloud-Ansätzen und Themen wie Cloud-Stacks oder Containerisierung auf den Industriekontext. Das bedeutet in der Konsequenz, dass ich meine Systeme nicht auf einem anonymen Rechenzentrum eines Hyperscalers, sondern viel näher am Werk auf einem Serverschrank einer Produktionsanlage, dem firmeneigenen Rechenzentrum oder einem regionalen Cloud-Anbieter laufen lasse. In unserem Fall könnte das der Konsortialpartner Pfalzkom sein, an dessen Rechenzentren das Werk direkt per Glasfaser angebunden werden könnte. Damit würden große Latenzzeiten vermieden und die Kontrolle über den Datenstrom möglich.

Brümmer: Der große Vorteil von Twin4Trucks ist seine Modellhaftigkeit. Wir haben ein kleines Testfeld geschaffen, auf dem wir sämtliche Themen von Datenerzeugung bis Datenhaltung ausprobieren können. Mit unseren Use Cases und der zu schaffenden Datenarchitektur bereiten wir die Grundlage, auf der wir dann auch gemeinsam mit unserer IT die Entscheidung treffen können, wo wir die Datenmengen unterbringen können.

Sie wollen im Projekt ebenfalls KI&ML-Methoden testen. Wie werden diese eingesetzt, welchen Impact erwarten Sie sich dadurch?

Brümmer: KI ist in der Industrie zurzeit in aller Munde und auch wir versuchen das Thema relativ breit zu denken. In unserem Projekt treiben wir vor allem das Thema Visual Detection mithilfe von KI voran. Optische Überwachungssysteme klassischer Prägung geraten immer häufiger an ihre Grenzen, die Trefferwahrscheinlichkeit ist nicht besonders hoch. Zudem sind wir teilweise davon abhängig, dass ein Mensch den optischen Prüfschritt macht, was bei einer Achtstundenschicht enorm anspruchsvoll sein kann. Und es ist eine Tätigkeit, die unter Wertschöpfungs-Gesichtspunkten eigentlich unnötig ist.

Ein Beispiel?

Brümmer: Ein Spezialfall der Lkw-Fertigung insbesondere bei Pritschenfahrzeugen ist der sehr komplexe, große Rahmen, der eine Konfiguration der Fahrzeuge ins Unendliche treiben kann. Alle möglichen Bauteile können an unterschiedlichen Stellen am Fahrzeug positioniert sein, weswegen eine optische Erkennung in der Montage sehr herausfordernd ist. Andere Beispiele beziehen sich auf nicht sicherheitsrelevante Schraubfälle oder Nahtabdichtungen oder Klebenähte. All diese Anwendungen erhalten in der optischen Überwachung erst dann eine hohe Aussagekraft und Präzision, wenn sie mit einer KI-unterstützten Datenverarbeitung verknüpft sind. Hier wollen wir die nächsten Schritte gehen, um Aussagesicherheit und Treffergenauigkeiten massiv zu erhöhen und somit auch Kosten zu sparen.

Automobil Produktion Kongress 2024

Automobil Produktion Kongress 2024

Am 16. und 17. Mai 2024 treffen sich auf dem Automobil Produktion Kongress in München auch in diesem Jahr wieder Fach- und Führungskräfte, um über die Automobilfertigung der Zukunft zu sprechen. Gemeinsam streben Hersteller, Zulieferer und Dienstleister eine smarte, flexible sowie nachhaltige Produktion mit transparenter Lieferkette an. Seien Sie dabei und profitieren Sie von kollektiven Branchenwissen. 🎫 Jetzt Ticket sichern!

Wie herausfordernd ist es, Datenbeschreibungen für Entwickler und Produktionspersonal verständlich zu machen?

Brümmer: Ein sehr wichtiger Punkt, den Sie da ansprechen. Wir legen großen Wert darauf, unsere Mitarbeiter wirklich mitzunehmen. Künstliche Intelligenz ganz grundsätzlich verständlich zu machen, ist eine große Herausforderung. Aber gerade in der Verbindung mit Visualisierung und konkreter Werker-Unterstützung wird das Thema viel nahbarer, weil man wirklich sieht, welche Ergebnisse am Ende stehen. Beispiel Schraubfälle: Hier lassen sich sehr schöne optische Darstellungen erzeugen, die zeigen, welche Schraubfälle auffällig sind. Das an die Mitarbeiter zu spiegeln, erzeugt ein Vertrauen in die Technologie und eine Wahrnehmung, dass KI im alltäglichen Doing wirklich eine Hilfe sein kann.

Geht das im laufenden Prozess oder müssen sie die Mitarbeiter dafür gesondert schulen?

Brümmer: Alles was wir hier tun, sind zunächst einmal Versuchsaufbauten. Wir gehen dabei ganz konkret auf einzelne Gruppen einer Meisterei zu und erklären, welche Tools wir in ihren ganz spezifischen Prozess installieren wollen. Das ist am Anfang erst einmal ein punktuelles Vorgehen. Darüber hinaus nutzen wir Gruppengespräche, um die entsprechenden Informationen weiterzugeben. Ich bin überzeugt, dass die Akzeptanz dann am größten ist, wenn Sie die Technologie am Praxisbeispiel erläutern und konkrete Ergebnisse zeigen können.

Zu den Personen:

Dr. Ekkehard Brümmer ist aktuell Senior Manager Manufacturing Engineering bei Daimler Truck. Vor dem Spin-off der Lkw-Tochter war Brümmer 13 Jahre im Daimler-Konzern als Experte für Produktion und Qualitätsmanagement unterwegs. Zwischen 2009 und 2015 bekleidete er die Position des Senior Manager Qulitätsmanagement an verschiedenen deutschen Standorten und in Sao Bernardo do Campo in Brasilien. Im Jahr 2015 wechselt er ins Truck-Werk nach Wörth am Rhein als Senior Manager Manufacturing Engineering. Brümmer studierte Maschinenbau an der TU Darmstadt sowie Wirtschaftswissenschaften an der Universität St.Gallen.

 

Prof. Dr. Martin Ruskowski ist Forschungsbereichsleiter Innovative Fabriksysteme am Deutschen Forschungszentrum für Künstliche Intelligenz, Inhaber des Lehrstuhls für Werkzeugmaschinen und Steuerungen an der TU Kaiserslautern und Vorstandsvorsitzender der im DFKI beheimateten Technologie-Initiative SmartFactory KL e.V.. Seine Forschungsschwerpunkte sind neuartige Steuerungskonzepte für die Automatisierung, Künstliche Intelligenz in der Automatisierungstechnik sowie Industrieroboter als Werkzeugmaschinen. Zuvor hatte er mehrere Führungspositionen in der Industrie inne, zuletzt als Leiter „Research & Development“ bei Kuka Industries Group.

Sie möchten gerne weiterlesen?