Rainer Hochecker

IBM

Kontaktdaten

Qualitätssicherung

Visuelle Inspektion
mit künstlicher Intelligenz

Das Grundprinzip der Systeme im Bereich der visuellen Bildverarbeitung sind meist auf maschinellem Lernen aufsetzende neuronale Netze, die mit Bildern von Gut- und Fehlteilen angelernt werden. Sie erzeugen ein Modell, das direkt an der Produktionslinie entsteht und verwendet wird. Dabei ist das Erstellen der Modelle sehr rechenintensiv. Das ist der Grund, warum die schon lange existierenden neuronalen Netze erst 2015 den Durchbruch erzielten.

IBM Visual Insights ist eine Applikation, die diese Technologie im industriellen Umfeld zum Einsatz bringt. Bei der Entwicklung dieser Systeme müssen die Ergebnisse der visuellen Qualitätssicherung mit anderen Produktionsdaten verknüpft werden, um auch die Ursachen der erkannten Probleme zeitnah zu erfassen und die Ausschussrate weiter zu verringern.

Der 17. Dezember 2015 war ein Umbruch im Bereich der visuellen Bildverarbeitung mit Computern. Beim ImageNet Large Scale Visual Recognition Challenge (ILSVRC), einem normierten Test zur Erkennungsleistung von Bildern, unterbot zum ersten Mal ein Algorithmus die für Menschen durchschnittliche Fehlerquote von fünf Prozent.

Schnell war klar, dass eine Anwendung in der Industrie nicht nur Kostenvorteile bringt, sondern auch die Produktqualität erhöhen kann. Der Wettstreit der Algorithmen wurde nicht gestoppt, sondern im Gegenteil angeheizt, so dass in den vergangenen drei Jahren eine Flut von Bilderkennungsalgorithmen erschienen ist.

Foto: IBM

Viele Startups haben diese überwiegend als Open Source bereitgestellten Algorithmen genutzt und kameragestützte Qualitätssicherungslösungen auf Basis von Algorithmen operationalisiert, die auch schnell Erfolge in der Industrie realisiert haben.

Mit den ersten Projekten zeigen sich auch die Herausforderungen der Technologie. Zum einen gilt es, die Dynamik der immer besser werdenden Algorithmen (Caffe, Tensorflow, PyTorch, Keras) zu meistern – die Caffe-Community spricht von einem Modell-Zoo, aus dem man sich bedienen kann. Zum anderen sind Insellösungen – auch wenn sie integrierbar sind – für große Rollouts problematisch. Aktuell wird häufig nach Plug-In-Lösungen gesucht. Die Grundstruktur des visuellen Qualitätssystems ist gleichartig aufgebaut und Installations-, Rollen- sowie Berechtigungskonzept bleiben über einen langen Zeitraum gleich. Die Kameratechnik und die Algorithmen/neuronalen Netze zum Trainieren und Auswerten können schnell an neue Entwicklungen angepasst werden. Dies vereinfacht zum einen die organisatorische Einbindung in Unternehmensprozesse, zum anderen wird der Zugang zu neuen Technologien ermöglicht.

Eine weitere Herausforderung ist die Art der Installation. Auch wenn die Cloud in aller Munde ist, können sensible Qualitätsprozesse nicht von einer Internetverbindung abhängig sein. Ein mögliches Szenario ist die Möglichkeit, die Modelle in der Cloud kostengünstig zu trainieren, diese dann jedoch ohne Verbindung zum Internet an der Produktionslinie auszuführen. In der Praxis sind diese Disconnected-Edge-Architekturen noch in vielen Fällen nicht vorhanden. Zudem können sich nur große Produktionsbetriebe eine vollständig lokale Lösung leisten.

Der letzte Faktor ist die Performance dieser Systeme. Die Bewertungsergebnisse oder die Schlussfolgerung müssen in kurzer Zeit vorliegen. Hier profitieren neuronale Netze und Deep-Learning-Algorithmen von Grafikprozessoren, die viele Operationen parallel ausführen können. Um mehrere hundert Bilder pro Minute in einem Produktionsprozess zu begutachten, braucht das System die entsprechende Rechenleistung. Auch hier möchte man sich nicht abhängig machen. Zum einen, weil man sonst historische Hardware auf Lager legen muss, zum anderen, weil in der Hardware massive Entwicklungssprünge gemacht werden – vor allem getrieben vom autonomen Fahren, das eine vergleichbare technische Basis benötigt.

In der Konsequenz muss nicht nur die Kamera, sondern auch das gesamte Edge-System flexibel und austauschbar bleiben, weshalb zum Beispiel Containeransätze sehr sinnvoll sein können. Fasst man die Herausforderungen zusammen, ergibt sich eine Blaupause für eine zeitgemäße Architektur für visuelle Qualitätssicherung: Ein leistungsfähiges Backend – in der Cloud oder lokal – das mit unterschiedlichen Verfahren aus Bildern zuverlässige Modelle erzeugen kann. Ein flexibles System an der Produktionslinie, das mit unterschiedlicher Kameratechnik und verschiedenen Modellen umgehen kann und über Hardwarebeschleunigung auch für hohen Durchsatz optimiert werden kann. Und schließlich die Synchronisation zwischen Produktionssystem (Edge) und Backend, die ein Neu- oder Nachtrainieren ermöglicht, wenn sich Änderungen ergeben oder neue Algorithmen zur Verfügung stehen.

Derartige Systeme sind bereits im Markt vorkonfektioniert verfügbar. Logischerweise sind Anpassungen an die spezifischen Produktionsbedingungen notwendig. IBM Visual Insights ist eine Applikation, die auf Open-Source-Frameworks aufbaut und diese Technologie in einem industriellen Umfeld zum Einsatz bringt.

Im nächsten Schritt bei der Entwicklung dieser Systeme müssen die Ergebnisse der visuellen Qualitätssicherung mit anderen Produktionsdaten verknüpft werden, um auch die Ursachen der erkannten Probleme zeitnah zu erfassen und die Ausschussrate weiter zu verringern. Zudem wird die zunehmende Rechenleistung auch die Nutzung von bewegten Bildern – also Video – wirtschaftlicher machen, so dass weitere Anwendungsfelder für die Qualitätskontrolle erschlossen werden können.

Kontakt

Rainer Hochecker

Leading Technical Sales Professional
IBM Watson IoT in der DACH-Region

Dagmar Domke

Unternehmenskommunikation IBM Deutschland
Business Analytics, Watson, Industrie 4.0
IBM Deutschland Management & Business Support GmbH
Düsseldorf
Tel. +49-170-4808228
E-Mail senden

www.ibm.de