Lernen unter Regeln

So arbeitet BMWs neues Zentrum für Physical AI

Ein Roboter greift daneben, korrigiert und versucht es erneut. In München zeigt BMW, wie lernfähige Robotik in die Fabrik kommen soll. Entscheidend sind Daten, Präzision, Safety und eine Infrastruktur, die Fehler zulässt und aus ihnen lernt.

7 min
In der Demo soll eine elektronische Steuereinheit auf einen Halter gesetzt und anschließend fixiert werden.

Der BMW Talent Campus, direkt am Münchner Stammwerk gelegen, wurde erst im Oktober 2025 eröffnet. Schon der Bau selbst sagt viel darüber aus, wie sich der Konzern derzeit inszeniert und verstanden wissen will. Offen, modern, technologiegetrieben, nah an Entwicklung und Produktion zugleich. Das passt zu einer Marke, die rund um ihre iFactory zuletzt durchaus eine gute Figur gemacht hat. Und Figur ist in diesem Fall mehr als nur ein sprachlicher Zufall. Mit Figure.AI hat BMW im Werk Spartanburg bereits erste Erfahrungen mit humanoider Robotik in der Produktion gesammelt. 

Nun folgt mit Hexagon der nächste Schritt. Vor Ort in München wird sichtbar, wie ernst es BMW mit diesem Thema meint. In dem im Talent Campus angesiedelten neuen Kompetenzzentrum für Physical AI arbeiten junge Ingenieure, Robotik- und KI-Experten daran, humanoide und andere lernfähige Systeme so weit zu bringen, dass sie nicht nur in Demos funktionieren, sondern auf möglichst vielen Ebenen in den realen Werksbetrieb hineinreichen.

Kompetenzzentrum soll Tempo und Ordnung zusammenbringen

Felix Häckel, Leiter des neuen „Center of Competence for Physical AI in Production“ bei BMW, beschreibt den Ausgangspunkt ziemlich klar. Die Technologie entwickle sich derzeit mit hoher Geschwindigkeit. Gleichzeitig liefen weltweit verschiedene PoCs und Technologieversuche in den Werken. Jetzt gehe es darum, Wissen, Erfahrungen und Kompetenzen zu bündeln, damit sich diese Technologien schneller industrialisieren lassen. Dafür hat BMW in München ein multidisziplinäres Team aufgebaut, das Robotik, KI und Produktionswissen zusammenführt und den Transfer aus dem Labor in die Werke organisieren soll. Häckel verweist dabei nicht nur auf Forschungspartner und öffentlich geförderte Projekte, sondern vor allem auf die konkrete Anforderung aus den Fabriken. Entscheidend sei, zu verstehen, was die Werke tatsächlich brauchen und wie sich neue Systeme in bestehende Abläufe überführen lassen.

Wir bündeln unsere Expertise, um das Wissen zu KI und Robotik im gesamten Produktionsnetzwerk nutzbar zu machen.

Felix Häckel, BMW

Diese Aussage ist mehr als Organisationsprosa. Sie beschreibt den eigentlichen Kern des Projekts. BMW will Physical AI nicht als einzelne Demo behandeln, sondern als neue Produktionsdomäne. Mit Netzwerk, Standards, Lernkurven und einer Roadmap vom Labortisch in den Werkalltag. Genau deshalb verweist Häckel auch auf den Austausch mit Standorten wie Spartanburg und Leipzig. Der Anspruch ist nicht, einzelne Roboter zu zeigen, sondern aus verteilten Erfahrungen belastbare Industrialisierung zu machen.

Das Gehirn zählt mehr als der Formfaktor

Nikita Aleshin, bei BMW für Strategie und Humanoid-Projekte im Umfeld von Physical AI zuständig, rückt den Fokus dann bewusst weg von der Hardware. Ob ein System auf Rädern fährt, auf Beinen läuft oder nur aus Armen besteht, sei für BMW zunächst zweitrangig. Entscheidend sei, was im „Gehirn“ des Roboters passiere. Aleshin beschreibt dieses Gehirn als ein Foundation Model, in das BMW industrielles Wissen einbringt. Es soll verstehen, was ein Bauteil ist, wie es mit einem anderen Teil zusammengefügt wird und was in einer konkreten Produktionssituation zu tun ist. Dafür kombiniert das Modell mehrere Ebenen. 

Für uns ist nicht der Formfaktor entscheidend, sondern was im Gehirn des Roboters passiert.

Nikita Aleshin, Physical-AI-Experte bei BMW

Sprache als Instruktion, Kamerabilder als Wahrnehmung und Sensoren für die Eigenwahrnehmung des Roboters. Aus dieser Kombination entstehen konkrete Aktionen. Aleshin beschreibt das anschaulich über das hörbare „Klicken“ des Systems. Nicht Text ist der Output, sondern die nächste Bewegung.

Darin liegt der Bruch zur klassischen Robotik. Heute dominieren in der Fabrik noch weitgehend vorprogrammierte Systeme. Jeder Schweißpunkt, jede Position, jeder Ablauf ist definiert. Aleshin sagt offen, dass BMW genau davon wegwill. Statt Punkt für Punkt zu programmieren, sollen Roboter über Imitation Learning lernen. Also durch Vormachen, Wiederholen und Anpassen. Das Modell bekommt nicht einfach Koordinaten, sondern ein Verständnis der Aufgabe. Für BMW ist das deshalb relevant, weil ein generisches Modell zwar vielleicht eine Tasse greifen kann, aber noch lange nicht weiß, wie eine Fabrik aussieht oder wie ein konkreter Montageprozess funktioniert. Dieses industrielle Domänenwissen muss erst aufgebaut werden.

Der interessante Moment ist der Fehler

Wie das in der Praxis aussieht, zeigt Michael Gentner, Physical-AI-Experte bei BMW in einer Demo an einer vergleichsweise kleinen Aufgabe. Eine elektronische Steuereinheit soll auf einen Halter gesetzt und anschließend fixiert werden. Heute ist dieser Prozess manuell, weil er entweder zu komplex oder wirtschaftlich nicht sinnvoll automatisierbar ist. Genau solche Aufgaben gelten bei BMW als interessanter Testfall für lernfähige Robotik. Nicht weil sie spektakulär sind, sondern weil sie die feinen Abweichungen des realen Werkalltags enthalten. Teile liegen nicht immer gleich, die Orientierung variiert, kleine Toleranzen summieren sich.

KI-Experte Gentner verdeutlicht, was mit dem oft abstrakt klingenden Begriff „Recovery“ gemeint ist. Gelingt ein Griff nicht sofort, bricht das System nicht einfach ab. Es versucht einen anderen Ansatz und arbeitet weiter. Genau darin liegt einer der wesentlichen Unterschiede zur klassischen Automatisierung. Nicht jede Eventualität muss vorab als fester Programmzweig angelegt werden. Das System soll aus Demonstrationen und Trainingsdaten ableiten, wie es mit Varianz und Störungen umgeht.

Ohne Industriedaten bleibt das Modell blind

Gerade an diesem Punkt wird deutlich, warum BMW das Thema so stark über Daten und nicht nur über Robotik aufzieht. Die Grundmodelle mögen öffentlich verfügbar sein. Industrielle Realität haben sie damit noch nicht automatisch gesehen. Haushaltsobjekte, öffentliche Datensätze und generische Bewegungsmuster sind vergleichsweise leicht zugänglich. Industrielle Teile, Montagelogik, produktionstypische Abläufe und die Unschärfen eines realen Werkes dagegen nicht.

Aleshin macht deutlich, dass genau dieses Domänenwissen der entscheidende Punkt ist. Ein Modell muss erst lernen, was in der Fabrik überhaupt relevant ist. Es muss verstehen, wie Bauteile zusammengehören, wie Aufgaben kontextabhängig variieren und welche Abläufe in der Produktion tatsächlich zählen. Erst dadurch wird aus einem generischen Modell ein industriell nutzbares System. Physical AI wird damit weniger zur Frage eines einzelnen Roboters als zu einer Frage der Datenbasis und der Spezialisierung.

Die Serie beginnt auf den letzten Millimetern

In der Vorführung wird zugleich sichtbar, wo die eigentliche Hürde liegt. Nicht beim ersten Griff, sondern bei der Präzision am Ende der Bewegung. Sobald ein Bauteil exakt gesetzt werden muss, etwa auf eine definierte Position oder einen mechanischen Bezugspunkt, entscheidet sich, ob aus einer Demo ein belastbarer Prozess wird. Von außen wirkt dieser Moment oft wie ein kurzes Zögern. Tatsächlich sind es die letzten Korrekturen, in denen sich zeigt, ob ein System mit Toleranzen umgehen kann.

In einer Fertigung mit festen Taktvorgaben reicht es nicht, wenn Greifen oder Transportieren grundsätzlich funktioniert. Auch die finale Positionierung muss wiederholbar sein. Genau dort verläuft die Trennlinie zwischen technischer Demonstration und Serienfähigkeit. Der Unterschied zwischen Versuch und Werkrealität liegt deshalb selten in der großen Bewegung, sondern fast immer in den letzten Millimetern.

Hinzu kommt die Geschwindigkeitsfrage. Auch sie wird bei BMW nicht als Nebensache behandelt. Mehr Training und bessere Kalibrierung können Abläufe beschleunigen. Gleichzeitig bleibt die wirtschaftliche Betrachtung entscheidend. Ein langsameres System kann in der Fabrik dennoch sinnvoll sein, wenn Kosten, Parallelisierung und Stationslogik stimmen. Nicht die einzelne Bewegung zählt, sondern die Gesamtleistung eines Prozesses.

Leipzig wird zur Bewährungsprobe

Wo diese Logik praktisch erprobt werden soll, beschreibt Michael Ströbel, Leiter Prozessmanagement und Digitalisierung in der Produktion bei BMW. Leipzig sei für BMW ein besonders geeigneter Startpunkt für die Industrialisierung eines Roboters, weil das Werk die gesamte Wertschöpfungskette abbilde. Presswerk, Karosseriebau, Lack, Montage, dazu Spritzguss, Komponentenfertigung und Energiemodule. Wenn ein System dort funktioniere, sei die Übertragbarkeit ins restliche Produktionsnetzwerk mit mehr als 33 Werken deutlich wahrscheinlicher. 

Ströbel beschreibt auch den Auswahlprozess für Hexagon. BMW scanne den Markt kontinuierlich nach Technologien, die bei Automatisierung und Effizienz helfen könnten. Partner würden zunächst im Labor mit realitätsnahen Aufgaben herausgefordert, etwa beim Sortieren unstrukturierter Teile oder bei Messaufgaben. Erst wenn das funktioniere, ziehe BMW einen Piloten im Werk in Betracht. Nach einem ersten Test im Dezember 2025 sollen nun zwei Aeon-Roboter im zweiten Quartal dieses Jahres nach Leipzig kommen. Wenn alles nach Plan laufe, könnten sie bis Ende des Jahres in Produktion sein.

Wenn wir einen Roboter nach Leipzig bringen und ihn dort über all diese Technologien hinweg einsetzen können, dann kann er in unserem gesamten Produktionsnetzwerk funktionieren.

Michael Ströbel, BMW

Damit bekommt der Pilot einen klaren Charakter. Leipzig ist nicht bloß Kulisse, sondern Bewährungsprobe. BMW sucht dort nicht die isolierte Demonstration, sondern die Frage, wie robust ein System in möglichst vielen Produktionsumgebungen bleibt. Genau deshalb sei der Pilot auch strategisch interessanter als die reine Ankündigung eines humanoiden Roboters.

Safety ist keine Fußnote, sondern die Eintrittskarte

Parallel dazu macht BMW deutlich, dass solche Systeme nur dann relevant werden, wenn sie sich in industrielle Safety-Logiken einfügen. In den Workshops im Talent Campus geht es deshalb erstaunlich schnell um klassische Fragen aus der Produktion. Wo ist der Not-Aus? Wie wird eine Zelle gestoppt? Können Menschen im selben Raum arbeiten? Die Antworten sind eindeutig. Diese Technologie werde nur eingesetzt, wenn sie aktuellen Sicherheitsstandards entspreche. Gleichzeitig wird der Anspruch formuliert, dass der Arbeitsraum mit Menschen geteilt werden können müsse. Andernfalls würde BMW diesen Ansatz nicht verfolgen. Damit verschiebt sich die Debatte. Nicht die spektakuläre Bewegung ist der Maßstab, sondern die Zertifizierbarkeit. Humanoide Robotik wird in der Fabrik erst dann interessant, wenn sie sich wie jede andere Anlage behandeln lässt.

Hexagon setzt auf Sensorik, Edge AI und Selbstwechsel-Akku

Hexagons Mehrzweck-Humanoider arbeitet im 24/7-Modus

Arnaud Robert, Präsident von Hexagon Robotics, beschreibt Aeon als Multi-Purpose-Humanoiden, der von Beginn an nicht nur für präzise Handhabung von Objekten (Manipulation) gebaut worden sei. Neben Greifaufgaben solle das System auch Inspektion, Reality Capture und den Aufbau eines digitalen Zwillings unterstützen. Dafür sei Aeon mit 34 Freiheitsgraden und 22 Sensoren ausgestattet. Robert nennt unterschiedliche Kameratypen, darunter Peripherie-, SLAM-, Time-of-Flight- und Infrarotkameras. Hinzu komme die Entscheidung für Räder, weil diese im Fabrikumfeld bei Distanzen und Richtungswechseln langfristig effizienter seien als andere Formfaktoren. Auch beim Thema Batterie setzt Hexagon auf Fabriklogik statt Showeffekt. Drei Stunden Laufzeit seien nur ein Teil der Rechnung. Wichtig sei vielmehr ein 24/7-Betrieb mit automatischem Batteriewechsel. Der Wechsel dauere 23 Sekunden und basiere auf einem supraleitenden Magnetmechanismus.

Robert beschreibt Physical AI dabei in mehreren Ebenen. Erstens Simulation und Reinforcement Learning. Zweitens Wahrnehmung, also nicht nur Objekterkennung, sondern die Zuordnung einer Aufgabe zu einem Objekt. Drittens Imitation Learning, bei dem Aufgaben vorgemacht statt programmiert werden. Und viertens World Models, die dem System ein breiteres Verständnis von Objekten, Materialeigenschaften und Umgebung vermitteln sollen. 

Besonders wichtig ist ihm dabei die Ausführung direkt am Roboter. Aeon arbeite mit zwei Nvidia-Jetson-Karten. Eine führe die Sensordaten zusammen, die andere übersetze Aufgabe und Wahrnehmung in Bewegungen. Genau dieses Edge-Setup hält Hexagon für kritisch im Fabrikumfeld, weil dort Hindernisse, Menschen und wechselnde Situationen unmittelbare Reaktionen erfordern.

Der digitale Zwilling ist Werkzeug, nicht Krücke

Sowohl BMW als auch Hexagon betonen, dass der digitale Zwilling zwar zentral für Training und Simulation ist, aber nicht als Dauerstütze des realen Betriebs gedacht sei. Aeon könne die Fabrik erfassen, 3D-Informationen erzeugen und so zur Aktualisierung des digitalen Zwillings beitragen. Gleichzeitig erstellt das System im Betrieb eigene Karten und nutzt sie zur Lokalisierung. Das ist ein wichtiger Punkt. Der digitale Zwilling ist hier kein Ersatz für Wahrnehmung, sondern ein Beschleuniger der Industrialisierung. Entwicklungszeiten sollen sinken, Trainingsschleifen kürzer werden und neue Use Cases schneller in reale Umgebungen übergehen. Der Maßstab bleibt am Ende aber die reale Fabrik und nicht das virtuelle Modell.

Am Ende bleibt eine bemerkenswert nüchterne Erkenntnis. BMW interessiert sich bei Physical AI nicht zuerst für den Roboterkörper. Entscheidend ist, ob ein System lernen kann, ob es sich von Fehlern erholt, ob es die letzten Millimeter sauber beherrscht und ob es sich in Sicherheit, Takt und Prozesslogik einer realen Fabrik einfügt. Genau darin liegt die eigentliche Verschiebung. Nicht mehr nur Automatisierung durch starre Abläufe, sondern Automatisierung durch trainiertes Verhalten. Der Weg dorthin führt nicht über große Visionen, sondern über Daten, Wiederholungen und viele kleine Korrekturen.