Was kann das und was kostet es? KI für die Vorhersage von Produkteigenschaften

Was kann das und was kostet es? KI für die Vorhersage von Produkteigenschaften||
What is it capable of and what does it cost? AI for the prediction of product|© Lamarr-Institut / Andreas Pauly|

In der produzierenden Industrie nimmt die Nachfrage nach Sonderanfertigungen für spezielle Anwendungsfälle einen immer größeren Platz ein. Um eine Kaufentscheidung zu treffen, benötigen potenzielle Kund*innen dafür Informationen wie z.B. Gewicht, Preis oder Lieferzeit des Endprodukts. Häufig sind diese bei Sonderanfertigungen jedoch im Vorfeld nicht bekannt oder bedürfen zeitaufwendiger Kalkulationen durch die Mitarbeitenden des Herstellers. KI-Methoden können hier Abhilfe schaffen, indem sie diese Informationen frühzeitig vorhersagen können. Dies erleichtert den Prozess der Gewinnung der Kund*innen und liefert beiden Seiten eine viel bessere Planbarkeit. Wie eine solche Vorhersage aussehen kann, betrachten wir in diesem Beitrag anhand der Preisprognose. Das Beispiel basiert auf einer Aufgabe, die wir im Rahmen unserer strategischen Partnerschaft in der Zusammenarbeit mit Wilo SE lösten, einem der weltweit führenden Hersteller von Pumpen und Pumpensystemen.

Ausgangslage

Die Wilo SE bietet seinen Kund*innen Lösungen für eine Vielzahl von Anwendungen rund um das Bewegen von Wasser. Daraus folgt ein sehr breites Produktspektrum, von kleinen Heizungspumpen in Millionenstückzahlen bis zu Sonderanfertigungen im Projektgeschäft. Bei letzterem haben die Kund*innen die Möglichkeit, ihre Produkte anhand einer Vielzahl von Produktmerkmalen, z.B. welcher Motor verbaut wird oder welche Anforderungen an die Materialien gestellt werden, individuell zu spezifizieren. Diese Freiheit in der Konfiguration erschwert jedoch die Kalkulation von z.B. Produktionskosten, welche jedoch entscheidend für die Festlegung des Verkaufspreises sind. Die Kalkulationen erfordern manuelle Schritte, binden daher wertvolle Mitarbeitendenkapazitäten und verzögern die Kommunikation zu den Kund*innen.

Um dieses Problem der zeitaufwendigen Vorhersage zu begegnen, haben wir ein Verfahren des Maschinellen Lernens entwickelt. Die Methode baut auf den historischen Bestelldaten auf, um mit den von den Kund*innen ausgewählten Features eine Vorhersage über den Preis treffen zu können. Hierfür wurde im Rahmen der strategischen Partnerschaft von Mitarbeitenden des Kompetenzzentrums Maschinelles Lernen Rhein Ruhr (ML2R), aus dem mittlerweile das Lamarr-Institut für Maschinelles Lernen und Künstliche Intelligenz hervorgegangen ist, eine Ensembling-Methode – genauer ein Stacking-Verfahren – entwickelt, welches wir im Folgenden vorstellen.

Stacking

Vereinfacht gesprochen werden beim Stacking Basislerner auf den vorhandenen Trainingsdaten trainiert, generieren eine Vorhersage und erweitern so den Trainingsdatensatz um neue Features für einen Metalerner, der das Resultat ausgibt. Somit müssen die Basislerner und der Metalerner sequenziell trainiert werden.

Wir haben in der Entwicklung des Basislerners ein einfaches Neuronales Netzwerk verwendet, das nur aus wenigen vollständig verbundenen linearen Schichten besteht, um eine angelehnte Klassifikationsaufgabe durchzuführen. Mit dem Ergebnis des Basislerners und der vorhandenen Features haben wir einen Metalerner trainiert, der eine Regression durchführt. Dafür wurden verschiedene Modelle evaluiert, und wir entschieden uns für einen Random Forest. Dabei werden die Trainingsdaten zufällig in unterschiedliche Mengen aufgeteilt und mit jeder Menge wird ein einfacher Entscheidungsbaum trainiert. Jeder einzelne Baum generiert eine einzelne Vorhersage, welche dann für das Ergebnis gemittelt werden.

modell - Lamarr Institute for Machine Learning (ML) and Artificial Intelligence (AI)
© Lamarr-Institut / Andreas Pauly

Basislerner

Wir haben als Basislerner ein Neuronales Netz, genauer ein Multilayer Perceptron mit mehreren Schichten für wenige Epochen auf einer angelehnten Lernaufgabe trainiert, wie z.B. eine Klassifikation, ob die Pumpe günstig oder teuer ist. Als Ausgabe haben wir die vorletzte Schicht verwendet, die uns die nötigen Features für das Training des Metalerners liefert.

Die so erhaltenen Features kodieren damit Informationen über die vorherzusagende Eigenschaft – hier den Preis – und es kann auch noch eine Optimierung hinsichtlich Rechenzeit oder Speicherbedarf vorgenommen werden, z.B. in Form eines kleineren Modells.

Metalerner

Mit den Features aus dem Basislerner haben wir verschiedene Metalerner evaluiert. Hierbei haben wir den MSE (Mittlerer Quadratischer Abstand) und MAE (Mittlerer Absoluter Abstand) von der Vorhersage zum Preis optimiert. Dabei hat ein Random Forest am besten abgeschnitten, der auch hinsichtlich des Ressourcenbedarfs gute Resultate liefert.

Vertrauen

Eine wichtige Aufgabe, wenn in einem Unternehmen KI-Verfahren eingeführt werden, ist das Vertrauen in das System. Um diesem Umstand zu begegnen, kann z.B. für verschiedene Modelle auf die Unsicherheit einer Vorhersage hingewiesen werden, so dass bei einzelnen Fällen nachgelagert eine manuelle Kontrolle geschieht, um einen schwerwiegenden Fehler zu vermeiden. Wir geben Vorhersageintervalle bei den Preisen mit an, damit die Akzeptanz der Benutzer*innen ins System steigt und Fehler möglichst vermieden werden.

Ergebnis

Wir haben mit der vorgestellten Methode ein Verfahren entwickelt, das Unternehmen einen wichtigen Geschwindigkeitsvorteil bringen kann. Wo vorher zuerst die fehlenden Merkmale von Mitarbeitenden ausgewählt werden mussten, um die gewünschte Eigenschaft zu bestimmen, kann dies jetzt innerhalb von Sekunden erfolgen, nachdem die Kund*innen ihre Wünsche geäußert haben. Außerdem erhalten wir Einblicke, wie weit sich die ausgewählten Kund*innenmerkmale auf das Ergebnis auswirken. Wir erhalten z.B. Auskunft auf die Frage, welche Folgen die Auswahl des Motors auf die Preisgestaltung hat. Entsprechen diese Auswirkungen dem Expert*innenwissen, kann dies zusätzlich das Vertrauen in das Modell steigern.

Andreas Pauly

Andreas Pauly ist wissenschaftlicher Mitarbeiter am Lehrstuhl für Software Engineering an der TU Dortmund. Er beschäftigt sich mit der Entwicklung von Methoden die einfach in der Praxis einzuführen sind. Sein Fokus liegt auf Methoden des unüberwachten Lernens und ressourcenbewussten Machine Learnings.

Weitere Blogartikel