Smarte Qualitätsinspektion

Wie künstliche Intelligenz vom Band lernt

Produktionsingenieure in einem Werk, das gleichzeitig E‑Fahrzeuge, Hybride und Verbrennervarianten fertigt, können nicht jeden Fehlermodus vorab definieren. Regelbasierte Bildverarbeitung hat ihre strukturelle Grenze erreicht. Was sie ablöst, schlägt kein Regelwerk auf – es lernt aus der Linie.

9 min
Abstract human profiles facing each other above outlined car diagrams.
KI-Vision & Qualitätskontrolle: eine Linie, tausend Varianten und kein Spielraum für Fehler.

Bevor ein konventionelles Machine-Vision-System im Produktionsbetrieb überhaupt ein einziges Bild aufnimmt, liegen bereits Wochen unsichtbarer Arbeit hinter ihm. Jeder Fehler­typ muss katalogisiert werden. Jede Schwelle definiert. Jedes Ergebnis gegen Referenzbilder validiert. Bei einer komplexen Baugruppe kann dieser Prozess einen Großteil eines Monats in Anspruch nehmen – und wenn er abgeschlossen ist, ist das resultierende Regelwerk im Grunde eingefroren, für die gesamte Lebensdauer des Modells festgeschrieben. Es erfasst genau das, was Ingenieure an dem Tag vorhersehen konnten, an dem es geschrieben wurde. Mehr nicht.

Für den Großteil der jüngeren Industriegeschichte war das völlig akzeptabel: lange Produktionszyklen, überschaubare Variantenvielfalt, gut prognostizierbare Ausfallmuster. Doch im BMW-Werk Regensburg läuft heute alle 57 Sekunden ein fertiges Fahrzeug vom Band – und es kann sich dabei um einen X1 mit Verbrennungsmotor, einen X1 als Plug-in-Hybrid oder einen vollelektrischen iX2 handeln, konfiguriert aus Tausenden unterschiedlicher Kundenwünsche.

In der alten Welt verlangte jede neue Konfiguration neue Prüfregeln: geschrieben, getestet, validiert, gepflegt. Das Problem ist, dass Komplexität nicht linear skaliert. Sie potenziert sich. Und das analoge Regelwerk kann nicht Schritt halten.

Zwei unterschiedliche Antworten auf die gleiche Frage

Ein regelbasiertes System beantwortet im Kern die Frage „Ist das akzeptabel?“ durch Abgleich mit einer Liste, die jemand im Voraus erstellt hat. Der Ingenieur legt die akzeptablen Toleranzbereiche für jeden Parameter – Kratzertiefe, Spaltbreite, Schweißnahtgeometrie – fest, bevor die Kamera diese Definitionen auf jedes Teil anwendet. Innerhalb seines eigenen Vokabulars arbeitet das System schnell und präzise. Das Problem ist jedoch genau dieses Vokabular. Es ist immer endlich. Trifft es auf einen Fehlermodus, den niemand vorhergesehen hat – ausgelöst durch ein neues Material, eine ungewöhnliche Variantenkonfiguration oder eine Interaktion, die niemand modelliert hat –, dann übersieht das System ihn entweder vollständig oder produziert so viele Fehlalarme, bis die Bediener ihm nicht mehr vertrauen.

Ein KI-System nähert sich derselben Frage anders. Anstatt Regeln abzuprüfen, wird es auf großen Datensätzen von Produktionsbildern mit konformen Teilen trainiert und lernt so statistisch, wie eine „akzeptable“ Produktion aussieht. Wenn eine neue Einheit eintrifft, konsultiert das System kein statisches Regelwerk. Es vergleicht das vorliegende Bild mit diesem gelernten Basiszustand und das über alle Dimensionen gleichzeitig. Alles, was von der statistischen Norm abweicht, löst einen Alarm aus – unabhängig davon, ob dieser Fehlermodus jemals ausdrücklich benannt wurde.

Eine begutachtete Übersicht über mehr als fünfzig Studien, veröffentlicht im Januar 2026 in der Fachzeitschrift Sensors, hat ergeben, dass durch maschinelles Lernen unterstützte Bildverarbeitungssysteme in realen Produktionsumgebungen mittlerweile Trefferquoten bei der Fehlererkennung von über 95 Prozent erreichen, wobei einige Konfigurationen sogar 98 bis 100 Prozent erzielen. In komplexen, hochvariant ausgelegten Umgebungen ist der Leistungsunterschied zwischen beiden Ansätzen keine Frage des Grades, sondern struktureller Natur. Dieselbe Untersuchung ergab, dass 77 Prozent der KI-basierten Bildverarbeitungsanwendungen weiterhin im Prototypen- oder Pilotstadium feststecken.

Inspektion, die weiß, was sie betrachtet

Den überzeugendsten Nachweis dessen, was eine lernbasierte Inspektion tatsächlich leisten kann, liefert die Anwendung auf Fahrzeugebene. BMWs GenAI4Q-System, entwickelt mit dem Münchner Start-up Datagon AI und im Werk Regensburg im Livebetrieb, legt nicht für jedes Auto dieselbe Checkliste an. Es erstellt für jedes Fahrzeug einen maßgeschneiderten Inspektionskatalog, basierend auf dessen spezifischer Konfiguration und dokumentierter Produktionshistorie.

Rüdiger Römich, der in Regensburg den Bereich Test Floor and Finish leitet, beschreibt ein System, das „für jedes spezifische Kundenfahrzeug einen individuellen Inspektionskatalog erzeugt“ und anhand der Frage schlussfolgert, wo sich, ausgehend von der exakten Art der Montage dieses Fahrzeugs, statistisch am ehesten eine Anomalie gebildet haben dürfte. Die Inspektion geschieht nicht am Auto. Sie wird aus ihm abgeleitet.

Auf Komponentenebene ist SkillReal dasselbe Problem aus einer anderen Richtung angegangen und hat die Abhängigkeit von der „Goldenen Komponente“ beseitigt, die herkömmliche Systeme ausbremst. Anstatt gegen ein physisches Referenzmuster zu kalibrieren, richtet SkillReal die Kamerabilder direkt an der CAD-Datei der Komponente aus. Pete Grabowski, COO von SkillReal, bringt es auf den Punkt: „Manche Bildverarbeitungssysteme benötigen eine goldene Komponente, ein Mastermodell. Aber ein entscheidender Vorteil der SkillReal-Technologie ist, dass die Ausrichtung des digitalen Zwillings die Bilder der Kamera präzise mit dem CAD abgleicht.“

Eine neue Variante hinzuzufügen bedeutet, eine Datei hochzuladen – nicht, ein neues physisches Musterteil zu fertigen und zu validieren. In einer Schweißanlage von Volkswagen erledigte das System in 15 Sekunden eine Aufgabe, für die zuvor zwei Bediener ganze Schichten benötigten – mit einer Genauigkeit von 99,7 Prozent gegenüber einer menschlichen Basislinie von 80 Prozent.

Das Datenproblem hinter dem Kameraproblem

Hier liegt das Problem, über das Pilotprogramme selten offen sprechen: Bevor ein KI-Bildverarbeitungssystem arbeiten kann, braucht es Daten. Nicht ein paar Referenzbilder, sondern große, vielfältige, kontinuierlich aktualisierte Datensätze, die das gesamte Spektrum an Varianten und Fehlermodi abdecken, denen das System in der realen Welt begegnen wird. An diesem Punkt kollidiert die Qualitätsdiskussion mit der Dateninfrastruktur im Werk. Die Edge Cloud 4 Production Plattform von Audi, die in den deutschen Werken mehr als 1.000 einzelne Industriecomputer außer Betrieb genommen und durch zentralisierte lokale Server mit Datenverarbeitung im Millisekundenbereich ersetzt hat, ist hier in erster Linie nicht als Qualitätsinitiative relevant, sondern als deren Voraussetzung.

Eine KI, die aus Produktionsdaten lernt, ist nur so leistungsfähig wie die Daten, auf die sie tatsächlich zugreifen kann. In den meisten Werken liegen diese Daten in Silos: proprietäre Systeme, unterschiedliche Formate, verschiedene Epochen, unterschiedliche Anbieter. Diese Fragmentierung ist die Wand, an der die meisten Pilotprojekte letztlich scheitern – und mit großer Wahrscheinlichkeit der eigentliche Grund dafür, dass drei Viertel aller AI-Vision-Implementierungen nie in die Serie kommen.

Welchen Mehrwert die richtige Infrastruktur stiftet, zeigt sich an Audis „ProcessGuardAIn“-Plattform, die historisches Prozesswissen mit Live-Sensordaten verknüpft und Anomalien bereits beim Entstehen erkennt, statt erst, nachdem sie sich fortgepflanzt haben. In Neckarsulm markieren KI-Kameras Schweißspritzer an Rohkarosserie-Unterböden in Echtzeit und projizieren Licht direkt auf jede betroffene Stelle. Schleifroboter werden so ohne menschlichen Eingriff punktgenau zur richtigen Position geführt. Zwei Pilotprojekte im Karosserielack sollen im zweiten Quartal 2026 in die Serienproduktion übergehen.

Künstliche Intelligenz ist ein Quantensprung für die Effizienz in unserer Produktion. Mit unserer KI- und Digitalisierungsroadmap transformieren wir unsere Werke in Smart Factories, in denen KI als Partner agiert und unseren Mitarbeitenden gezielte Unterstützung bietet

Gerd Walker, Produktions- und Logistikvorstand, Audi

Gerd Walker, Audi-Vorstand für Produktion und Logistik, hat KI als „Quantensprung für die Effizienz in unserer Produktion“ beschrieben – konzipiert als echter Partner und nicht als Parallelsystem, um das sich Mitarbeitende herumorganisieren müssen.

Die gleiche Infrastruktur-Logik zeigt sich konzernweit bei BMW und Volkswagen. BMWs AIQX-Plattform, die kamera- und sensorbasierte KI-Qualitätsprüfungen in jedem BMW-Werk weltweit einsetzt, sowie das KI-gestützte Schweißbolzen-Monitoringsystem im Werk Spartanburg, das täglich rund eine halbe Million Schweißbolzen überwacht, sind gleichermaßen darauf angewiesen, dass Produktionsdaten kontinuierlich und in verwertbarer Form in die Qualitätssysteme gelangen.

In Debrecen hat BMW einen vollständigen digitalen Zwilling des Werks aufgebaut, bevor auch nur eine einzige physische Komponente installiert wurde – und die Qualitätssysteme damit von Anfang an als Teil der ursprünglichen Werksauslegung integriert, statt sie nachträglich anzuflanschen. Volkswagens Einsatz von mehr als 1.200 KI-Anwendungen über die globalen Aktivitäten hinweg ist nur möglich, weil eine gruppenweite Datenstandardisierung es erlaubt, diese Anwendungen von Werk zu Werk zu skalieren, anstatt sie jedes Mal von Grund auf neu aufzubauen. In allen Fällen ist die Lehre dieselbe: Das Qualitätssystem ist immer nur so leistungsfähig wie die Datenarchitektur, auf der es aufsetzt.

Elektrifizierung und die Asymmetrie des Versagens

Es gibt einen wesentlichen Unterschied zwischen einem Qualitätsfehler, der Geld kostet, und einem Qualitätsfehler, der Menschen schadet. Ein Lackfehler ist ein Garantiefall. Eine falsch montierte Batteriedichtung, ein unentdeckter thermischer Hotspot in einem Zellstapel, eine mit zu geringem Drehmoment angezogene Hochvoltverbindung – das sind Sicherheitsereignisse. Sie sind nicht einfach eine schlimmere Ausprägung desselben Problems. Sie sind ein kategorial anderes Problem, und die Prüfarchitektur, die für eine Welt ausgelegt wurde, in der der schlimmste Fall eine sichtbare Oberflächenunregelmäßigkeit war, ist für den Umgang damit nicht konstruiert.

Das EV-Batteriepaket ist gleichzeitig die sicherheitskritischste, technisch anspruchsvollste und variantenreichste Komponente, die die Automobilproduktion jemals in großen Stückzahlen herstellen musste. Es ist auch die Komponente, bei der die Grenzen regelbasierter Inspektion am gefährlichsten sind.

Yaron Saghiv, Chief Marketing Officer bei UVeye, dessen KI-Inspektionssysteme inzwischen jeden Monat fast eine Million individuelle Fahrzeuge scannen, skizziert zwei klar unterscheidbare, E-Auto-spezifische Herausforderungen: die Batterie selbst – strukturelle Integrität, thermisches Verhalten, Dichtungen, Verbindungen – und die Folgewirkungen der Batteriemasse auf Reifen, Fahrwerk und Bremsen, die auf die Toleranzen von Verbrennerantrieben ausgelegt sind. Inspektion im Flottenmaßstab bringt Verschleißmuster an die Oberfläche, die auf der Ebene des einzelnen Fahrzeugs unsichtbar bleiben, aber über eine große Population statistisch eindeutig sind. 

Saghiv beschreibt die Chance präzise: „Der wahre Wert großer Datensätze liegt in der vorausschauenden Wartung. Wenn wir wiederkehrende Rostprobleme bei einem bestimmten Modell in einer bestimmten Region sehen, können wir diese Erkenntnis auf die Fertigung zurückführen und Prozessänderungen vorschlagen.“ An diesem Punkt ist das Qualitätssystem nicht länger nur eine Produktionsfunktion. Es ist zu einem Produktintelligenzsystem geworden.

Die Integrität der E-Auto-Batterie ist ein absolutes Sicherheitsgebot, das zunehmend Fahrzeugperformance und den Markenruf der OEMs mitprägt

James McAllister, Atlas Copco

Auf dem Montageband selbst hat die Vision-Tools-Division von Atlas Copco die Batterieherausforderung direkt angenommen. Ihre Smart Verification with AI, die in diesem Monat auf den Markt kam, nutzt KI-gestützte Bildverarbeitung, um in Echtzeit jeden Füge-, Dicht- und Montageschritt an einem EV-Batteriepack ohne manuelles Eingreifen zu validieren. Die auf Leichtbaurobotern mit integrierter LED-Beleuchtung montierte „ROBOcam“ erfasst an jeder Station hochauflösende Bilder und löst Korrekturmaßnahmen oder einen kompletten Linienstopp aus, bevor eine fehlerhafte Batterie weiter in die nachgelagerten Prozesse gelangen kann.

Die thermische Dimension wird von einer Verifikations-Software abgedeckt, die Temperaturdifferenzen und Hotspots identifiziert, die durch ungleichmäßige Klebstoffauftragung, fehlausgerichtete Kühlkanäle oder Befestigungsfehler verursacht werden. Diese Anomalien sind mit bloßem Auge und mit herkömmlichen Kameras unsichtbar und lassen sich sonst nur später in der Feldperformance oder im schlimmsten Fall in Feldausfällen erkennen.

James McAllister, General Manager von Atlas Copco Tools and Industrial Assembly Solutions, formuliert es unmissverständlich: „Die Integrität von E-Auto-Batterien ist ein absolutes Sicherheitsgebot, das inzwischen hilft, die Fahrzeugperformance und den Markenruf der OEMs zu definieren.“

Rectangular industrial machine vision light and camera unit mounted on a stand in a lab.
Atlas-Copco-ROBOcam-System für KI-basierte Inspektion der EV-Batteriemontage in der Fertigungslinie.

Die wertsteigernde Anlage

Konventionelle Investitionsgüter verschleißen. Ein KI-Qualitätssystem hingegen, das korrekt implementiert und kontinuierlich mit den von ihm erzeugten Daten nachtrainiert wird, verhält sich genau umgekehrt. Jeder Scan erweitert den Trainingsdatensatz. Jeder bestätigte Fehler, jeder Fehlalarm, den ein Qualitätsingenieur erkennt und korrigiert, jede neue Variante, die in die Linie eingeführt wird, macht das Modell schärfer und besser auf die spezifischen Ausfallmuster dieser Anlage kalibriert.

Der Autobauer, der vor zwei oder drei Jahren im Produktionsmaßstab ausgerollt hat, ist nicht nur technologisch voraus. Er verfügt auch über einen proprietären Datenbestand, dessen Wert mit der Nutzung steigt und den kein Wettbewerber in kurzer Zeit replizieren kann – unabhängig davon, wie viel er zu investieren bereit ist.

Diese Logik liegt auch Hyundais Ansatz im „Metaplant America“ im US-Bundesstaat Georgia zugrunde. Dort patrouilliert der Roboterhund „Spot“ von Boston Dynamics durch die Schweißerei und führt Außenkontrollen der Qualität durch, wobei er Blickwinkel erreicht, die fest installierte Kameras an stationären Portalen niemals abdecken könnten. Das weitergehende Robotik-Engagement des Konzerns, untermauert durch eine Investition von 21 Milliarden US-Dollar in die US-Fertigung, weist auf ein Modell hin, in dem Qualitätsprüfung kein Tor am Ende der Linie mehr ist, sondern eine kontinuierliche, mobile Aktivität, die über die gesamte Anlage verteilt ist. Jeder Scan, den der Roboter ausführt, fließt in das Modell ein. Jede Anomalie, die er erkennt oder übersieht, ist Feedback, das es weiter verfeinert.

Die Kamera ist nicht das Problem

Angesichts all dessen verlangt die Tatsache, dass 77 Prozent der KI-Vision-Implementierungen noch immer im Pilotstadium feststecken, nach einer klaren Antwort. Die Technologie funktioniert, das ist hinreichend belegt. Die Hersteller, die im großen Maßstab ausgerollt haben, berichten von echten Vorteilen: bessere Erkennungsraten für Defekte, höhere Prozessnachvollziehbarkeit, kürzere Zeit von der Anomalie bis zur Behebung. Das, was die Mehrheit zurückhält, ist nicht die Kamera.

Saghiv, der von Implementierungen in Autohäusern, Serviceeinrichtungen und Fertigungslinien auf mehreren Kontinenten berichtet, ist betont: „Die eigentliche Herausforderung ist der Prozesswandel. Die Einführung automatisierter Inspektion erfordert die Integration in bestehende Workflows, Systeme und Checklisten. Es ist nicht vollständig autonom; Menschen prüfen die Ergebnisse weiterhin, so wie Ärzte Aufnahmen auswerten. Die Einführung braucht Zeit, insbesondere in großen Organisationen, aber sie wird einfacher, je klarer der Mehrwert wird.“ Der Vergleich mit der Radiologie ist aufschlussreich: KI hat Radiologen nicht ersetzt, sondern sie auf Interpretation und Beurteilung ausgerichtet.

Denselben Wandel können auch Qualitätsingenieure vollziehen, aber nur, wenn Unternehmen ihre Arbeitsabläufe aktiv um das herum neu gestalten, was das System tatsächlich leistet, statt es in eine Prozessarchitektur einzupassen, die für Regeln gebaut wurde. Ein KI-Inspektionssystem ist kein Kamera-Upgrade. Es ist eine organisatorische Veränderung mit einer Kamera an der Spitze.

Rockwell Automations Bericht „2025 State of Smart Manufacturing“, der auf den Antworten von 1.560 Entscheidern in der Fertigungsindustrie weltweit basiert, ergab, dass 95 Prozent in den vergangenen fünf Jahren in KI investiert haben oder dies planen, und dass die Hälfte von ihnen Qualitätskontrolle als primäres Ziel nennt. Marktprognosen gehen davon aus, dass der Markt für industrielle Bildverarbeitung von 20,4 Milliarden US-Dollar im Jahr 2024 auf 41,7 Milliarden US-Dollar bis 2030 wachsen wird. Am kommerziellen Momentum besteht kein Zweifel. Entscheidend dafür, wer diesen Wert abschöpft, ist nicht der Zugang zu Algorithmen – diese stehen zunehmend jedem zur Verfügung, der sie haben möchte. Entscheidend ist der Umfang und die Qualität der Produktionsdaten, auf denen diese Algorithmen trainiert werden.

Die Hersteller, die diesen Übergang am erfolgreichsten meistern, haben eines gemeinsam: Sie haben nicht mit der Kamera begonnen. Sie haben mit der Infrastruktur begonnen, die die Kamera überhaupt erst wertvoll macht: Audis Ablösung von mehr als tausend Industrie-PCs durch eine einheitliche Verarbeitungsarchitektur; BMWs vollständiger digitaler Zwilling von Debrecen, der aufgebaut wurde, bevor die erste physische Komponente installiert wurde; Volkswagens konzernweite Standardisierung von Daten, die es KI-Anwendungen ermöglicht, über Werke hinweg zu skalieren, anstatt in jedem Werk neu aufgebaut werden zu müssen.

Und was dabei auffallen sollte: Keines dieser Beispiele ist eine simple Qualitätsinitiative . Es sind die Voraussetzungen für Quality Intelligence. Fahrzeughersteller, die beides verwechseln, machen zuverlässig denselben Fehler: Sie kaufen die Kamera, führen einen Piloten durch und fragen sich dann, warum dieser niemals in einer wirklich produktiven Form in die Serie übergeht.

Vierzig Jahre lang verlangte maschinelles Sehen von Ingenieuren, sich jede mögliche Art des Bauteilversagens vorzustellen und sie vollständig zu dokumentieren, bevor die Produktion überhaupt begann. Doch die moderne Automobilfabrik hat diese Anforderung unmöglich gemacht. Die Antwort ist kein besseres Regelwerk, sondern Systeme, die in der Lage sind, direkt aus der Produktion zu lernen, wie Normalzustand aussieht; Systeme, die mit jeder gefahrenen Schicht leistungsfähiger werden und die Qualitätsprüfung von einem reinen Herstellungskostenfaktor in eine Quelle von Intelligence über die Produktion verwandeln. Für Hersteller, die das verstanden und die Grundlagen geschaffen haben, entsprechend zu handeln, ist die Frage der Einführung bereits geklärt. Für alle anderen ist diese 77-Prozent-Zahl kein Trost, sondern eine Frist.