01. 09. 2020
Verfasst von: Detlef Beer, Bodo Rosenhahn, Marco Rudolph, Bastian Wandt
Die Nadel im (Daten-)Heuhaufen finden
Studien prognostizieren durch den Einsatz von künstlicher Intelligenz eine Produktionssteigerung von bis zu 50 Prozent. Der Structuring Autoencoder etwa hilft, große Datenmengen zeiteffizient zu strukturieren, zu visualisieren und zu interpretieren. Die patentierte Technologie spart Kosten, reduziert Ausfälle und verbessert die Qualität in der additiven Fertigung oder bei der Prüfung von hochkomplexen optischen Bauteilen nachhaltig.
Structuring Autoencoder – Daten strukturieren, analysieren und interpretieren
Fertigungsmaschinen in der Fabrikhalle oder Trecker auf dem Acker – fast jedes digitale Gerät liefert heutzutage riesige Datenmengen. Doch nicht die Menge an Daten ist ausschlaggebend, sondern ihre Qualität. Ein Unternehmen muss sinnvoll interpretierbare und gewinnbringende Informationen aus den Daten für seinen Betrieb gewinnen können. Um diese Aufgabe zu lösen, eignet sich ein Werkzeug aus der Welt des maschinellen Lernens: Ein spezielles neuronales Netz – der Autoencoder – repräsentiert möglichst effizient die wichtigsten Merkmale aus den Daten. Hierzu „quetscht“ der Autoencoder die Daten durch einen Flaschenhals, den sogenannten latenten Raum. Die Informationen ordnen sich dabei nach selbstständig gelernten Merkmalen an.
Subtile Informationen abbilden
In vielen Fällen neigt jedoch das Netz dazu, subtile Informationen, die von Interesse sein können, zu ignorieren. Beispielsweise bleiben Bauteilfehler auf einer Leiterplatte wie ein Riss oder zu wenig Lotpaste gegebenenfalls unentdeckt, während der Autoencoder die visuell stark variierende, aber für die Produktqualität unwichtige Aufschrift eines Bauteils als dominantes Merkmal erfasst. Aus diesem Grund hat das Institut für Informationsverarbeitung der Leibniz Universität Hannover zusammen mit der Viscom AG einen strukturierenden Autoencoder entwickelt, der auch die gewünschten subtilen Informationen kostengünstig und zeiteffizient abbildet.
Daten leichter interpretieren
Ziel ist es dabei, diesen Autoencoder so zu trainieren, dass er Daten im latenten Raum mithilfe eines zusätzlichen Optimierungskriteriums (structural loss) zielgerichtet klassifiziert. Dadurch wird es möglich, Vorwissen aus den Daten nutzbar zu machen. Der neue Autoencoder macht semantische Strukturen sichtbar und die Daten leichter interpretierbar. So ordnen sich die Fehlerkategorien, zum Beispiel zu viel Lotpaste, ein fehlendes oder verschobenes Bauteil, selbstständig an. Eine internationale PCT-Patentanmeldung wurde eingeleitet. Die Technologie wird im Exzellenzcluster PhoenixD weiter erforscht und nutzbar gemacht. Sie eignet sich etwa für Bild- und Datenverarbeitung, Muster- und Spracherkennung, Regelungstechnik, für optische Technologien und Maschinenbau.
Exzellenzcluster PhoenixD
Leibniz Universität Hannover
Exzellenzcluster PhoenixD
Leibniz Universität Hannover
30169 Hannover
30169 Hannover