Werkerin steht vor Maschine

Hey Maschine: KI-basierte Systeme wie Hearables erlauben dem Werker, Maschinen berührungslos mithilfe von Sprache Kommandos zu geben, ohne aufsehen zu müssen. (Bild: Fraunhofer IDTM / Anika Bödeker)

Sie stellen Autos, Flugzeuge, Maschinen sowie Elektronik her – und haben einen erstaunlichen gemeinsamen Nenner: Sie treffen sich im Industriearbeitskreis Audiotechnologie für die intelligente Produktion (AiP), den der Oldenburger Institutsteil Hör-, Sprach- und Audiotechnologie des Fraunhofer-Instituts für Digitale Medientechnologie IDMT in Zusammenarbeit mit der Hochschule Emden/Leer 2020 gegründet hat. Mittlerweile arbeiten in diesem Netzwerk fast 50 Unternehmen an neuer Audiotechnik, die die Produktion ergonomischer, sicherer und effizienter machen soll.

„Die Motivation unseres Industriearbeitskreises ist es, die vielfältigen Potenziale der Audiotechnologie in der digitalisierten Produktion und Montage auszuschöpfen“, erklärt Jens Appell, Leiter des Oldenburger Institutsteils. „Dafür erarbeiten wir zusammen mit unseren Partnern Anwendungsszenarien, diskutieren ihre Gestaltung und setzen sie in gemeinsamen Projekten in die Praxis um.“

Großes Interesse in der Automobilindustrie

Ross und Reiter darf Marvin Norda, Arbeitskreis-Koordinator vom IDMT, nicht nennen, die meisten Teilnehmer wünschen Diskretion. Das Engagement aus der Automobilindustrie ist groß, etwa jedes fünfte Unternehmen im Projekt arbeitet im Bereich Automotive. Ob Mittelständler oder Großkonzern: Alle locken Fragestellungen, die sich mit konventioneller Technik nicht zuverlässig lösen lassen.

Vier Bereiche geht das Netzwerk gemeinsam im Zusammenspiel von Forschung und Industrie an: Condition Monitoring, hör- und sprachtechnische Unterstützung, akustische Services und Arbeitsplatz 4.0. Dabei steht das Lösen von Problemen anhand von konkreten Anwendungsfällen aus der Praxis im Mittelpunkt. Ein Beispiel aus dem letzten AiP-Meeting nennt Koordinator Norda: „In der Automobilindustrie werden nicht nur Kabelbäume, sondern auch immer mehr Verkleidungsteile blind über Klickverbindungen befestigt.“ Das ist problematisch, denn Fehler in der Montage, die zu Wackelkontakten oder Klappergeräuschen führen, werden oft zu spät erkannt: Das führt zu aufwendigen Nacharbeiten oder im schlimmsten Fall zu verärgerten Kunden – außerdem sorgen die Fehler für hohe Kosten und Imageschäden.

Sensorsystem checkt Klickverbindungen

Als Gegenmaßnahme haben Danilo Hollosi, Gruppenleiter Akustische Ereignisdetektion am Fraunhofer IDMT, und sein Team smarte Sensoren entwickelt, die in der Montage sofort erkennen, ob die Klickverbindung funktioniert hat. Die berührungslose akustische Prozessüberwachung arbeitet mit Luftschall. Wenn die Steckverbindungen einrasten, ertönt ein Klickgeräusch, den das smarte Sensorsystem erkennt. Bleibt der Klick aus, dann zeigt das akustische Monitoringsystem einen Fehler an, informiert den Werker und dokumentiert das Ereignis automatisch. In der automatisierten Fertigung werden die Metadaten zur Prozessdokumentation und Qualitätssicherung verwendet. Das clevere System blendet in lauten Fabrikhallen Störgeräusche aus und unterscheidet zwischen unzähligen Arten von Klicks und mechanischen Stößen.

Das klingt simpel, jedoch ist Klick nicht gleich Klick. „Ein Steckverbinder klingt anders als ein Lichtschalter, ein Tacker oder ein Kugelschreiber. Man glaubt gar nicht, wie viele Varianten von Einrastgeräuschen es gibt“, erklärt der Ingenieur. Hollosi und sein Team entwickelten daher KI-basierte Algorithmen für die zuverlässige Audioanalyse. Das komplette Condition-Monitoring-System besteht aus Mikrofon, Audiosignalverarbeitung, Software und Akku und ist in einem Zigarettenschachtel großen Gehäuse untergebracht. Aber es geht laut Hollosi auch noch kleiner: Das System lässt sich daher leicht in bestehende Anlagen oder Roboter integrieren.

Tablet und Teil einer Industrieanlage
Das Condition-Monitoring-System soll Störgeräusche an industriellen Anlagen detektieren können. (Bild: Fraunhofer IDMT)

Spracherkennung in Sekundenbruchteilen

Störgeräusche spielen auch eine wichtige Rolle bei einem anderen AiP-Projekt. Das Thema lautet Sprachsteuerung und Audio-Feedback. Die Norddeutschen haben KI-Algorithmen entwickelt, die sich mit Hilfe von Machine-Learning-Prozessen an unterschiedlichste Störgeräusche anpassen und die Sprache selbst in lauten Umgebungen herausfiltern. Koordinator Norda: „Diese ‚blinde‘ Quellentrennung von Nutz- und Störsignal funktioniert zuverlässig innerhalb von wenigen Millisekunden.“ Bewährt hat sich die Spracherkennung bereits bei der MTU Maintenance Hannover GmbH, die sie zur sprachlichen Dokumentation bei der Instandsetzung von Flugzeugtriebwerken nutzt.

Ein internes Forschungsprojekt geht noch einen Schritt weiter: Künftig sollen Bediener den Maschinen berührungslos über Sprache Kommandos geben und Rückmeldungen erhalten, ohne aufsehen zu müssen. Norda: „Den Unternehmen ist es nämlich wichtig, dass die Augen auf den Prozess gerichtet sind und der Maschinenbediener die Maschine mit freien Händen intuitiv steuern kann. Sprache bietet als natürlichste Form der Kommunikation des Menschen hier ein großes Optimierungspotenzial.“

Sie möchten gerne weiterlesen?