Ein Roboter greift daneben, korrigiert und versucht es erneut. In München zeigt BMW, wie lernfähige Robotik in die Fabrik kommen soll. Entscheidend sind Daten, Präzision, Safety und eine Infrastruktur, die Fehler zulässt und aus ihnen lernt.
In der Demo soll eine elektronische Steuereinheit auf einen Halter gesetzt und anschließend fixiert werden.BMW
Anzeige
Der BMW Talent Campus, direkt am Münchner Stammwerk gelegen,
wurde erst im Oktober 2025 eröffnet. Schon der Bau selbst sagt viel darüber
aus, wie sich der Konzern derzeit inszeniert und verstanden wissen will. Offen,
modern, technologiegetrieben, nah an Entwicklung und Produktion zugleich. Das
passt zu einer Marke, die rund um ihre iFactory zuletzt durchaus eine gute
Figur gemacht hat. Und Figur ist in diesem Fall mehr als nur ein sprachlicher
Zufall. Mit Figure.AI hat BMW im Werk Spartanburg bereits erste Erfahrungen mit
humanoider Robotik in der Produktion gesammelt.
Nun folgt mit Hexagon der
nächste Schritt. Vor Ort in München wird sichtbar, wie ernst es BMW mit diesem
Thema meint. In dem im Talent Campus angesiedelten neuen Kompetenzzentrum für
Physical AI arbeiten junge Ingenieure, Robotik- und KI-Experten daran,
humanoide und andere lernfähige Systeme so weit zu bringen, dass sie nicht nur
in Demos funktionieren, sondern auf möglichst vielen Ebenen in den realen
Werksbetrieb hineinreichen.
Kompetenzzentrum soll Tempo und Ordnung zusammenbringen
Felix Häckel, Leiter des neuen „Center of Competence for
Physical AI in Production“ bei BMW, beschreibt den Ausgangspunkt ziemlich klar.
Die Technologie entwickle sich derzeit mit hoher Geschwindigkeit. Gleichzeitig
liefen weltweit verschiedene PoCs und Technologieversuche in den
Werken. Jetzt gehe es darum, Wissen, Erfahrungen und Kompetenzen zu bündeln,
damit sich diese Technologien schneller industrialisieren lassen. Dafür hat BMW
in München ein multidisziplinäres Team aufgebaut, das Robotik, KI und
Produktionswissen zusammenführt und den Transfer aus dem Labor in die Werke
organisieren soll. Häckel verweist dabei nicht nur auf Forschungspartner und
öffentlich geförderte Projekte, sondern vor allem auf die konkrete Anforderung
aus den Fabriken. Entscheidend sei, zu verstehen, was die Werke tatsächlich
brauchen und wie sich neue Systeme in bestehende Abläufe überführen lassen.
Wir bündeln unsere Expertise, um das Wissen zu KI und Robotik im gesamten Produktionsnetzwerk nutzbar zu machen.
Felix Häckel, BMW
Diese Aussage ist mehr als Organisationsprosa. Sie
beschreibt den eigentlichen Kern des Projekts. BMW will Physical AI nicht als
einzelne Demo behandeln, sondern als neue Produktionsdomäne. Mit Netzwerk,
Standards, Lernkurven und einer Roadmap vom Labortisch in den Werkalltag. Genau
deshalb verweist Häckel auch auf den Austausch mit Standorten wie Spartanburg
und Leipzig. Der Anspruch ist nicht, einzelne Roboter zu zeigen, sondern aus
verteilten Erfahrungen belastbare Industrialisierung zu machen.
Anzeige
Das Gehirn zählt mehr als der Formfaktor
Nikita Aleshin, bei BMW für Strategie und Humanoid-Projekte
im Umfeld von Physical AI zuständig, rückt den Fokus dann bewusst weg von der
Hardware. Ob ein System auf Rädern fährt, auf Beinen läuft oder nur aus Armen
besteht, sei für BMW zunächst zweitrangig. Entscheidend sei, was im „Gehirn“
des Roboters passiere. Aleshin beschreibt dieses Gehirn als ein Foundation
Model, in das BMW industrielles Wissen einbringt. Es soll verstehen, was ein Bauteil ist, wie es mit einem anderen Teil zusammengefügt wird und was in
einer konkreten Produktionssituation zu tun ist. Dafür kombiniert das Modell
mehrere Ebenen.
Für uns ist nicht der Formfaktor entscheidend, sondern was im Gehirn des Roboters passiert.
Nikita Aleshin, Physical-AI-Experte bei BMW
Sprache als Instruktion, Kamerabilder als Wahrnehmung und
Sensoren für die Eigenwahrnehmung des Roboters. Aus dieser Kombination
entstehen konkrete Aktionen. Aleshin beschreibt das anschaulich über das
hörbare „Klicken“ des Systems. Nicht Text ist der Output, sondern die nächste
Bewegung.
Anzeige
Darin liegt der Bruch zur klassischen Robotik. Heute
dominieren in der Fabrik noch weitgehend vorprogrammierte Systeme. Jeder
Schweißpunkt, jede Position, jeder Ablauf ist definiert. Aleshin sagt offen,
dass BMW genau davon wegwill. Statt Punkt für Punkt zu programmieren, sollen
Roboter über Imitation Learning lernen. Also durch Vormachen, Wiederholen und
Anpassen. Das Modell bekommt nicht einfach Koordinaten, sondern ein Verständnis
der Aufgabe. Für BMW ist das deshalb relevant, weil ein generisches Modell zwar
vielleicht eine Tasse greifen kann, aber noch lange nicht weiß, wie eine Fabrik
aussieht oder wie ein konkreter Montageprozess funktioniert. Dieses
industrielle Domänenwissen muss erst aufgebaut werden.
Der interessante Moment ist der Fehler
Wie das in der Praxis aussieht, zeigt Michael Gentner,
Physical-AI-Experte bei BMW in einer Demo an einer vergleichsweise kleinen
Aufgabe. Eine elektronische Steuereinheit soll auf einen Halter gesetzt und
anschließend fixiert werden. Heute ist dieser Prozess manuell, weil er entweder
zu komplex oder wirtschaftlich nicht sinnvoll automatisierbar ist. Genau solche
Aufgaben gelten bei BMW als interessanter Testfall für lernfähige Robotik.
Nicht weil sie spektakulär sind, sondern weil sie die feinen Abweichungen des
realen Werkalltags enthalten. Teile liegen nicht immer gleich, die Orientierung
variiert, kleine Toleranzen summieren sich.
KI-Experte Gentner verdeutlicht, was mit dem oft abstrakt
klingenden Begriff „Recovery“ gemeint ist. Gelingt ein Griff nicht sofort, bricht
das System nicht einfach ab. Es versucht einen anderen Ansatz und arbeitet
weiter. Genau darin liegt einer der wesentlichen Unterschiede zur klassischen
Automatisierung. Nicht jede Eventualität muss vorab als fester Programmzweig
angelegt werden. Das System soll aus Demonstrationen und Trainingsdaten
ableiten, wie es mit Varianz und Störungen umgeht.
Gerade an diesem Punkt wird deutlich, warum BMW das Thema so
stark über Daten und nicht nur über Robotik aufzieht. Die Grundmodelle mögen
öffentlich verfügbar sein. Industrielle Realität haben sie damit noch nicht
automatisch gesehen. Haushaltsobjekte, öffentliche Datensätze und generische
Bewegungsmuster sind vergleichsweise leicht zugänglich. Industrielle Teile,
Montagelogik, produktionstypische Abläufe und die Unschärfen eines realen
Werkes dagegen nicht.
Aleshin macht deutlich, dass genau dieses Domänenwissen der
entscheidende Punkt ist. Ein Modell muss erst lernen, was in der Fabrik
überhaupt relevant ist. Es muss verstehen, wie Bauteile zusammengehören, wie
Aufgaben kontextabhängig variieren und welche Abläufe in der Produktion
tatsächlich zählen. Erst dadurch wird aus einem generischen Modell ein
industriell nutzbares System. Physical AI wird damit weniger zur Frage eines
einzelnen Roboters als zu einer Frage der Datenbasis und der Spezialisierung.
Anzeige
Die Serie beginnt auf den letzten Millimetern
In der Vorführung wird zugleich sichtbar, wo die eigentliche
Hürde liegt. Nicht beim ersten Griff, sondern bei der Präzision am Ende der
Bewegung. Sobald ein Bauteil exakt gesetzt werden muss, etwa auf eine
definierte Position oder einen mechanischen Bezugspunkt, entscheidet sich, ob
aus einer Demo ein belastbarer Prozess wird. Von außen wirkt dieser Moment oft
wie ein kurzes Zögern. Tatsächlich sind es die letzten Korrekturen, in denen
sich zeigt, ob ein System mit Toleranzen umgehen kann.
In einer Fertigung mit festen Taktvorgaben reicht es nicht,
wenn Greifen oder Transportieren grundsätzlich funktioniert. Auch die finale
Positionierung muss wiederholbar sein. Genau dort verläuft die Trennlinie
zwischen technischer Demonstration und Serienfähigkeit. Der Unterschied
zwischen Versuch und Werkrealität liegt deshalb selten in der großen Bewegung,
sondern fast immer in den letzten Millimetern.
Anzeige
Hinzu kommt die Geschwindigkeitsfrage. Auch sie wird bei BMW
nicht als Nebensache behandelt. Mehr Training und bessere Kalibrierung können
Abläufe beschleunigen. Gleichzeitig bleibt die wirtschaftliche Betrachtung
entscheidend. Ein langsameres System kann in der Fabrik dennoch sinnvoll sein,
wenn Kosten, Parallelisierung und Stationslogik stimmen. Nicht die einzelne
Bewegung zählt, sondern die Gesamtleistung eines Prozesses.
Wo diese Logik praktisch erprobt werden soll, beschreibt
Michael Ströbel, Leiter Prozessmanagement und Digitalisierung in der Produktion
bei BMW. Leipzig sei für BMW ein besonders geeigneter Startpunkt für die
Industrialisierung eines Roboters, weil das Werk die gesamte
Wertschöpfungskette abbilde. Presswerk, Karosseriebau, Lack, Montage, dazu
Spritzguss, Komponentenfertigung und Energiemodule. Wenn ein System dort
funktioniere, sei die Übertragbarkeit ins restliche Produktionsnetzwerk mit
mehr als 33 Werken deutlich wahrscheinlicher.
Ströbel beschreibt auch den
Auswahlprozess für Hexagon. BMW scanne den Markt kontinuierlich nach
Technologien, die bei Automatisierung und Effizienz helfen könnten. Partner
würden zunächst im Labor mit realitätsnahen Aufgaben herausgefordert, etwa beim
Sortieren unstrukturierter Teile oder bei Messaufgaben. Erst wenn das
funktioniere, ziehe BMW einen Piloten im Werk in Betracht. Nach einem ersten
Test im Dezember 2025 sollen nun zwei Aeon-Roboter im zweiten Quartal dieses Jahres
nach Leipzig kommen. Wenn alles nach Plan laufe, könnten sie bis Ende des
Jahres in Produktion sein.
Wenn wir einen Roboter nach Leipzig bringen und ihn dort über all diese Technologien hinweg einsetzen können, dann kann er in unserem gesamten Produktionsnetzwerk funktionieren.
Michael Ströbel, BMW
Damit bekommt der Pilot einen klaren Charakter. Leipzig ist
nicht bloß Kulisse, sondern Bewährungsprobe. BMW sucht dort nicht die isolierte
Demonstration, sondern die Frage, wie robust ein System in möglichst vielen
Produktionsumgebungen bleibt. Genau deshalb sei der Pilot auch strategisch
interessanter als die reine Ankündigung eines humanoiden Roboters.
Safety ist keine Fußnote, sondern die Eintrittskarte
Parallel dazu macht BMW deutlich, dass solche Systeme nur
dann relevant werden, wenn sie sich in industrielle Safety-Logiken einfügen. In
den Workshops im Talent Campus geht es deshalb erstaunlich schnell um
klassische Fragen aus der Produktion. Wo ist der Not-Aus? Wie wird eine Zelle
gestoppt? Können Menschen im selben Raum arbeiten? Die Antworten sind eindeutig.
Diese Technologie werde nur eingesetzt, wenn sie aktuellen Sicherheitsstandards
entspreche. Gleichzeitig wird der Anspruch formuliert, dass der Arbeitsraum mit
Menschen geteilt werden können müsse. Andernfalls würde BMW diesen Ansatz nicht
verfolgen. Damit verschiebt sich die Debatte. Nicht die spektakuläre Bewegung
ist der Maßstab, sondern die Zertifizierbarkeit. Humanoide Robotik wird in der
Fabrik erst dann interessant, wenn sie sich wie jede andere Anlage behandeln
lässt.
Hexagon setzt auf Sensorik, Edge AI und Selbstwechsel-Akku
Hexagons Mehrzweck-Humanoider arbeitet im 24/7-ModusBMW
Arnaud Robert, Präsident von Hexagon Robotics, beschreibt
Aeon als Multi-Purpose-Humanoiden, der von Beginn an nicht nur für präzise Handhabung von Objekten (Manipulation) gebaut worden sei. Neben Greifaufgaben solle das System auch Inspektion,
Reality Capture und den Aufbau eines digitalen Zwillings unterstützen. Dafür
sei Aeon mit 34 Freiheitsgraden und 22 Sensoren ausgestattet. Robert nennt
unterschiedliche Kameratypen, darunter Peripherie-, SLAM-, Time-of-Flight- und
Infrarotkameras. Hinzu komme die Entscheidung für Räder, weil diese im
Fabrikumfeld bei Distanzen und Richtungswechseln langfristig effizienter seien
als andere Formfaktoren. Auch beim Thema Batterie setzt Hexagon auf Fabriklogik
statt Showeffekt. Drei Stunden Laufzeit seien nur ein Teil der Rechnung.
Wichtig sei vielmehr ein 24/7-Betrieb mit automatischem Batteriewechsel. Der
Wechsel dauere 23 Sekunden und basiere auf einem supraleitenden
Magnetmechanismus.
Robert beschreibt Physical AI dabei in mehreren Ebenen. Erstens Simulation und Reinforcement
Learning. Zweitens Wahrnehmung, also nicht nur Objekterkennung, sondern
die Zuordnung einer Aufgabe zu einem Objekt. Drittens Imitation Learning, bei
dem Aufgaben vorgemacht statt programmiert werden. Und viertens World Models,
die dem System ein breiteres Verständnis von Objekten, Materialeigenschaften
und Umgebung vermitteln sollen.
Besonders wichtig ist ihm dabei die Ausführung
direkt am Roboter. Aeon arbeite mit zwei Nvidia-Jetson-Karten. Eine führe die
Sensordaten zusammen, die andere übersetze Aufgabe und Wahrnehmung in
Bewegungen. Genau dieses Edge-Setup hält Hexagon für kritisch im Fabrikumfeld,
weil dort Hindernisse, Menschen und wechselnde Situationen unmittelbare
Reaktionen erfordern.
Der digitale Zwilling ist Werkzeug, nicht Krücke
Sowohl BMW als auch Hexagon betonen, dass der digitale
Zwilling zwar zentral für Training und Simulation ist, aber nicht als
Dauerstütze des realen Betriebs gedacht sei. Aeon könne die Fabrik erfassen,
3D-Informationen erzeugen und so zur Aktualisierung des digitalen Zwillings
beitragen. Gleichzeitig erstellt das System im Betrieb eigene Karten und nutzt
sie zur Lokalisierung. Das ist ein wichtiger Punkt. Der digitale Zwilling ist
hier kein Ersatz für Wahrnehmung, sondern ein Beschleuniger der Industrialisierung.
Entwicklungszeiten sollen sinken, Trainingsschleifen kürzer werden und neue Use
Cases schneller in reale Umgebungen übergehen. Der Maßstab bleibt am Ende aber
die reale Fabrik und nicht das virtuelle Modell.
Am Ende bleibt eine bemerkenswert nüchterne Erkenntnis. BMW
interessiert sich bei Physical AI nicht zuerst für den Roboterkörper.
Entscheidend ist, ob ein System lernen kann, ob es sich von Fehlern erholt, ob
es die letzten Millimeter sauber beherrscht und ob es sich in Sicherheit, Takt
und Prozesslogik einer realen Fabrik einfügt. Genau darin liegt die eigentliche
Verschiebung. Nicht mehr nur Automatisierung durch starre Abläufe, sondern
Automatisierung durch trainiertes Verhalten. Der Weg dorthin führt nicht über
große Visionen, sondern über Daten, Wiederholungen und viele kleine
Korrekturen.