
Produktionsexperte Ekkehard Brümmer treibt die stringente Vernetzung und Digitalisierung der Lkw-Produktion bei Daimler Truck voran. (Bild: Daimler Truck/Collage)
Herr Brümmer, das Forschungsprojekt Twin4Trucks endet dieses Jahr. Wenn Sie heute auf die drei Jahre Forschung und Praxiseinsatz zurückblicken: Was war für Sie die wichtigste Erkenntnis?
Ein Projekt dieser Größenordnung mit vielen Partnern ist alles andere als trivial. Es braucht Zeit, um sich als Konsortium zu finden und in einen produktiven Arbeitsmodus zu kommen. Gleichzeitig haben sich unsere Use Cases sehr dynamisch entwickelt. Das hat dafür gesorgt, dass wir die Projektzeit sehr gut nutzen konnten. Es ging nicht um mehr Inhalte oder mehr Budget, sondern vielmehr um eine sinnvolle zeitliche Streckung. Was sich für mich ganz klar bestätigt hat: Eine Kooperation in dieser Form und mit diesem Setup ist außerordentlich wertvoll.
Und welche Erwartungen wurden nicht erfüllt?
Inhaltlich gab es durchaus Unterschiede in der Entwicklungstiefe. Einige Themen, etwa der Einsatz von KI in der visuellen Datenverarbeitung, haben sich sehr gut und schnell entwickelt. Andere hingegen, wie etwa 5G im industriellen Umfeld oder Ortungssysteme, erwiesen sich als deutlich langsamer. Hier hat es gedauert, geeignete Partner zu finden, und auch in der Umsetzung hat sich gezeigt, dass wir deutlich weniger Reife und Geschwindigkeit erreicht haben als ursprünglich erhofft. Ein weiteres Thema, bei dem Erwartungen und Realität noch auseinanderklaffen, ist Gaia-X. Im Konsortium waren wir uns schnell einig, dass politisch hohe Erwartungen bestehen, die in der praktischen Umsetzung aber noch nicht eingelöst werden können. Die Reife der Systeme und der Grad der Standardisierung lassen hier noch einiges an Grundlagenarbeit notwendig erscheinen – mehr, als wir ursprünglich angenommen hatten.
In unserem letzten Gespräch vor gut anderthalb Jahren betonten Sie, dass Sie gewonnene Daten auch wirklich nutzen wollen. Wo konnte der Digital Foundation Layer konkret zur Prozessverbesserung in Wörth beitragen – und wie messbar sind diese Effekte?
Am deutlichsten messbar sind die Effekte immer an den konkreten Use Cases. Wir haben mehrere Demonstratoren in realen Anwendungen, etwa Datenmonitoring per Kamera, welches es in dieser Form vorher nicht gab. Die dabei gesammelten Daten lassen sich direkt zur Prozessoptimierung nutzen. Weniger greifbar, aber ebenso wichtig, ist die Frage, wie wir Daten über mehrere Use Cases hinweg verknüpfen und verfügbar machen. Das ist ein zentraler Enabler für effizientere Arbeit, jedoch schwerer quantitativ zu bewerten. Am deutlichsten wird der Nutzen, wenn man konkrete Auswirkungen auf die Produktion betrachtet: Reduktion von manuellen Eingriffen, verbesserte Fertigungszeiten, Entlastung der Mitarbeitenden. Beispielsweise beim Use Case „Q-Tor“ entfällt durch die automatisierte Kontrolle die vorherige manuelle Schraubenprüfung. Das spart Aufwand und erhöht die Prozesssicherheit. Die Basis hierfür ist geschaffen. Was jetzt noch fehlt, sind stärker übergreifende Datenverbindungen, da liegt viel Potenzial, das wir noch heben müssen.
Was steckt hinter dem Projekt Twin4Trucks?

Zeitrahmen: September 2022 bis Ende 2025
Ziel des Projekts: Das Projekt Twin4Trucks verfolgt das Ziel, einen digitalen Zwilling für die Lkw-Produktion im Daimler-Truck-Stammwerk in Wörth zu entwickeln. Im Zentrum steht die Datendurchgängigkeit über alle Produktionsprozesse hinweg – von der Montage über die Materialversorgung bis zur Qualitätssicherung
Projektpartner: Daimler Truck (DTAG) führt das Projektkonsortium an. Weitere Partner sind:
- DFKI/SmartFactoryKL (u.a. Testbed)
- Eviden (u.a. Datenaustausch Gaia-X)
- Infosys (Netzwerk/5G)
- Pfalzkom (Regional Edge Cloud)
Technologischer Ansatz: Das Projekt baut einen sogenannten Digital Foundation Layer auf – eine digitale Basisstruktur, die alle Produktionsdaten vernetzt. Ziel ist es, aus bisher isolierten Datensilos ein ganzheitliches, KI-gestütztes System zu schaffen, das:
- Produktionsprozesse in Echtzeit abbildet,
- Qualitätskontrollen automatisiert (z. B. durch Bildverarbeitung),
- die Lokalisierung von Bauteilen ohne manuelle Barcodescanner ermöglicht
Bedeutung für Daimler Truck: Das Werk in Wörth ist das größte Montagewerk im Produktionsnetzwerk von Daimler Truck. Hier werden täglich rund 500 Lkw wie Arocs, Atego oder Actros produziert. Durch den digitalen Zwilling soll die Effizienz weiter gesteigert und Innovationen schneller in die Praxis überführt werden
Mehr dazu hier.
Einen Meilenstein im Projektverlauf haben Sie schon angesprochen: das Q-Tor. Wie ausgereift ist dieses System heute?
Das Q-Tor ist ein komplexes System, das filmgestützte Daten in hoher Auflösung analysiert. Nach rund drei Jahren Entwicklungszeit hat es mittlerweile einen hohen Reifegrad erreicht. Je nach gewählter Sensibilität treten zwar noch Fehlalarme auf, aber die Treffergenauigkeit bei tatsächlichen Fehlern ist inzwischen sehr hoch. Das Vertrauen der Anwender in die Technologie ist entsprechend gewachsen. Es handelt sich allerdings noch um einen Demonstrator, also noch keinen flächendeckenden Einsatz, aber die technische Leistungsfähigkeit ist da. Besonders hervorheben möchte ich auch das Frontend: Die Benutzeroberfläche ist sehr nutzerfreundlich und praxisnah gestaltet, was die Integration in den operativen Alltag erleichtert. Unser Eindruck ist: Das System ist heute absolut geeignet, um Fragestellungen rund um automatisierte Schraubenkontrolle zuverlässig und effizient zu lösen.
Wie reagiert das Personal auf die „algorithmische Qualitätskontrolle“?
Wir erleben, dass unsere Mitarbeitenden zunehmend mit digitalen Informationen arbeiten, etwa mit visualisierten Montagevorgängen. Das schafft eine gewisse Vertrautheit im Umgang mit Systemen wie dem Q-Tor. Es handelt sich also keineswegs um eine isolierte Lösung, sondern fügt sich gut in bestehende Prozesse ein. Die Akzeptanz ist daher sehr hoch. Ein Grund dafür ist die einfache Bedienung. Die Informationen werden auf einem Bildschirm angezeigt, und der Mitarbeitende kann die Fehler direkt nachvollziehen, quittieren und gegebenenfalls nacharbeiten. Es werden ausschließlich relevante Daten angezeigt, was die Übersichtlichkeit verbessert. Auch die hohe Trefferquote trägt zur Akzeptanz bei. Wir haben keine negativen Rückmeldungen erhalten, niemand empfindet das System als Fremdkörper. Im Gegenteil: Es ersetzt eine klassische, nichtwertschöpfende und potenziell ermüdende Tätigkeit – das manuelle Prüfen – durch eine deutlich sicherere, automatisierte Lösung.
Müssen Sie die KI-Modelle aufgrund der niedrigen Fehlerhäufigkeit mit synthetisch hergestellten Bildern füttern? Wie robust sind solche Modelle in der Realität?
Die Vielfalt an realen Daten reicht aus, um unsere KI-Modelle ohne synthetische Daten zu trainieren. Das Thema synthetische Daten ist trotzdem äußerst spannend. Gemeinsam mit dem DFKI haben wir einen alternativen Ansatz untersucht und ein Paper dazu veröffentlicht. In einem nachempfundenen Demonstrator wurden dort reale und aus CAD-Modellen erzeugte Bilder kombiniert. Die Ergebnisse zeigen deutlich: Die Kombination synthetischer und realer Daten erhöht sowohl die Lerngeschwindigkeit als auch die Treffergenauigkeit.
Also werden synthetische Daten künftig auch bei Daimler Truck verwendet?
Für uns war der klassische Ansatz mit Realbildern erfolgreich, auch wenn die Stabilisierung des Systems vielleicht etwas länger gedauert hat. Dennoch ist klar: In künftigen Use Cases, insbesondere bei seltenen Fehlerbildern, ist der Einsatz synthetischer Daten hochrelevant. Und das ist nicht nur für uns von Bedeutung. Die Ergebnisse sind auch für kleine und mittlere Unternehmen interessant, weil sich damit Projekte umsetzen lassen, die vorher möglicherweise nicht realistisch erschienen. Das war für uns eine der überraschenden Entdeckungen des Projekts, insbesondere im Bereich Visual Detection.
Damit sind wir beim Thema Skalierung. Welche Use Cases eignen sich Ihrer Einschätzung nach für die Serienproduktion? Und welchen Zeithorizont sehen Sie dafür?
Die Skalierung verläuft in zwei Richtungen. Zum einen entdecken wir neue, ähnliche Anwendungsfälle auf Basis bestehender Use Cases – ein schöner Nebeneffekt des Projekts. So prüfen wir inzwischen auch die Vollständigkeit von Bauteilen mit Kameratunneln. Ein besonders interessanter Fall ist die automatisierte Kontrolle der Reifenrollrichtung. Falsch montierte Reifen können auch im Pkw-Bereich zum Problem werden, bei Lkw ist es noch komplexer. Die Profile unterscheiden sich je nach Typ erheblich, was eine manuelle Prüfung erschwert. Auch hier haben wir inzwischen einen funktionierenden Demonstrator mit Kameramonitoring. Zum anderen haben die existierenden Systeme – wie das Q-Tor – einen sehr hohen technischen Reifegrad erreicht. Es ist jetzt im Grunde nur noch eine Frage der Ressourcen, um den Roll-out zu realisieren. Nach Projektende wollen wir das Q-Tor zeitnah an allen drei Montagelinien im Werk Wörth einsetzen.
Spüren Sie Druck von der Managementebene, solche Innovationen angesichts des aktuell besonders hohen Kosten- und Effizienzdrucks schnell in den Serieneinsatz zu bringen?
Ich würde das eher als großes Interesse bezeichnen. Der Impuls zur schnellen Umsetzung ergibt sich vor allem aus dem Reifegrad der Technologien. Wenn wir zeigen können, dass ein System wie das Q-Tor technisch ausgereift ist und einen messbaren Effizienzgewinn bringt, dann besteht natürlich auch unternehmerisch die Verpflichtung, es in die Praxis zu überführen.

Eine zentrale Erkenntnis aus dem Projekt ist, dass es nicht immer sinnvoll ist, sämtliche Daten zu sammeln und in großem Stil in der Cloud zu speichern. Manche Fragestellungen lassen sich lokal am Entstehungsort effizient lösen.
Das Ziel von Twin4Trucks ist vor allem Interoperabilität und eine universelle Datenverfügbarkeit. Im Projekt sind viele Partner aus verschiedenen Industriezweigen mit unterschiedlichen Innovationsgeschwindigkeiten vertreten. Welche Erkenntnisse ziehen Sie aus der Zusammenarbeit?
Die zentrale Herausforderung liegt in der Balance: Einerseits müssen die Partner in ihrem jeweiligen Bereich eigenständig agieren und Verantwortung übernehmen, andererseits braucht es gezielt gesetzte Brücken zwischen den Einzelinteressen. Das war zu Beginn nicht trivial, gerade mit neuen Playern und in ungewohnten Arbeitskonstellationen. Aber es war zu erwarten, dass ein gemeinsamer Modus sich erst entwickeln muss. Sobald dieser gefunden ist, zeigt sich der Vorteil: Die Partner können spezifische Themen mit großer Tiefe bearbeiten – wie etwa die Datenarchitektur oder das Thema Gaia-X gemeinsam mit Eviden – und zugleich an konkreten Use Cases ihre Expertise in die praktische Umsetzung einbringen. Jeder Konsortialpartner trägt die Verantwortung für seinen Projektumfang, wird eigenständig gefördert und muss eigene Nachweise erbringen. Diese Struktur schafft klare Verantwortlichkeiten, erlaubt aber dennoch die notwendige Vernetzung und Zusammenarbeit an den Schnittstellen. Für mich eine sehr funktionale und hilfreiche Logik.
Stichwort Industrial Edge Cloud: Wichtig im Projekt war auch die Möglichkeit, mithilfe von Partnern wie Pfalzkom Daten weitgehend lokal zu verarbeiten. Ist ein solches Vorgehen für Sie modellhaft für die gesamte Branche, um bspw. von der Abhängigkeit US-amerikanischer Hyperscaler loszukommen?
Das lässt sich pauschal schwer beantworten. Eine zentrale Erkenntnis aus dem Projekt ist jedenfalls, dass es nicht immer sinnvoll ist, sämtliche Daten zu sammeln und in großem Stil in der Cloud zu speichern. Manche Fragestellungen, etwa die korrekte Reifenrollrichtung, lassen sich lokal am Entstehungsort effizient lösen. Wenn ein solcher Use Case vor Ort bereits einen konkreten Mehrwert schafft, muss nicht zwingend eine zentrale Datenspeicherung folgen. Natürlich kann man diese Daten auch zentral ablegen. Aber wenn kein unmittelbarer Nutzen erkennbar ist, entfällt womöglich auch die Notwendigkeit dazu. In solchen Fällen kommt es auf die Strategie des Unternehmens an: Wie viel will ich lokal im eigenen Haus halten? Und was möchte ich wirklich in größere Cloudsysteme überführen? Was wir im Projekt definitiv gelernt haben: Es gibt äußerst kompetente lokale Partner wie Pfalzkom, die bereits große Kunden betreuen und passende Infrastrukturen anbieten. Wir haben beispielsweise ein Rechenzentrum des Partners vor Ort besichtigt und waren beeindruckt von der Leistungsfähigkeit. Das schafft Vertrauen und eröffnet echte Alternativen zur Nutzung globaler Hyperscaler. Große Edge-Cloud-Lösungen brauchen wir hingegen meist für besonders datenintensive oder unternehmensübergreifende Anwendungen. Da kommt dann wieder Gaia-X ins Spiel – etwa, wenn wir Daten mit anderen Akteuren austauschen wollen. Entscheidend ist also, sich genau zu überlegen, wo tatsächlich externe Datenhaltung erforderlich ist und welcher Partner dafür der richtige ist.
Twin4Trucks wäre sicherlich auch ein guter Use Case für das Catena-X-Ökosystem.
Definitiv. Wir beobachten die Entwicklungen dort sehr genau. Im Projekt haben wir uns intensiv mit Datenaustausch, Datenräumen und europäischen Standards – insbesondere Gaia-X – beschäftigt. Partner wie Pfalzkom und Eviden waren hier besonders aktiv und bringen tiefgehende Expertise ein. Wir haben bereits erste Use Cases erprobt, bei denen Daten zwischen uns und einem Lieferanten ausgetauscht wurden, exemplarisch umgesetzt über die SmartFactory KL als virtuellen Partner. Dabei haben wir eine Verwaltungsschale für einfache Daten aufgebaut und diese bidirektional ausgetauscht. Aus meiner Sicht ist das ein hoch relevantes Zukunftsthema, das noch deutlich an Bedeutung gewinnen wird. Allerdings ist auch klar: Bis praktikable Standards etabliert sind und Datenräume wirklich im großflächigen Stil von OEMs und Zulieferern genutzt werden, ist noch einiges zu tun. Deshalb haben wir uns entschieden, das Thema Catena-X im Detail in der Nachprojektphase weiter zu verfolgen. Vorerst liegt der Fokus darauf, unsere bestehenden Use Cases weiter zu erproben und technisch zur Reife zu bringen.
Twin4Trucks endet – aber das Thema Datendurchgängigkeit bleibt. Welche Nachfolgeinitiativen, Transferprojekte oder internen Roadmaps entstehen aktuell bei Daimler Truck auf Basis der Erkenntnisse aus diesem Projekt?
Mehrere Themen werden uns über das Projektende hinaus weiter beschäftigen. Besonders die Frage, wie schnell und praxisnah sich KI-basierte Lösungen einsetzen lassen – mit überschaubarem Ressourceneinsatz – ist ein zentraler Erkenntnisgewinn. Auch das Thema 5G, das wir im Projekt behandelt haben, wird weiterverfolgt – insbesondere im Hinblick auf die Ortungsqualität. Hier haben wir bislang nur einen Zwischenstand erreicht. Wir werden genau beobachten, wie sich die Anbieterlandschaft weiterentwickelt und wer als Partner für die nächste Phase infrage kommt. Ein Schwerpunkt wird künftig darin bestehen, schneller in die Umsetzung zu kommen und konkrete Anwendungsfälle in den Produktionsalltag zu überführen. In vielen Bereichen haben sich durch das Projekt neue Türen geöffnet, etwa beim Zusammenspiel von KI und Datenverfügbarkeit.
Zur Person:

Dr. Ekkehard Brümmer ist aktuell Senior Manager Manufacturing Engineering bei Daimler Truck. Vor dem Spin-off der Lkw-Tochter war Brümmer 13 Jahre im Daimler-Konzern als Experte für Produktion und Qualitätsmanagement unterwegs. Zwischen 2009 und 2015 bekleidete er die Position des Senior Manager Qualitätsmanagement an verschiedenen deutschen Standorten und in Sao Bernardo do Campo in Brasilien. Im Jahr 2015 wechselt er ins Truck-Werk nach Wörth am Rhein als Senior Manager Manufacturing Engineering. Brümmer studierte Maschinenbau an der TU Darmstadt sowie Wirtschaftswissenschaften an der Universität St.Gallen.