KI-Modelle „von der Stange“ scheitern an der Industrieproduktion

Der Markt für Energiemanagement-Lösungen verspricht oft einfache Antworten durch Künstliche Intelligenz. Während die Anbieter von Cloud-Dienstleistungen und Online-Plattformen mit „One-Click-KI“ werben, zeigt die Realität in deutschen Fabrikhallen ein anderes Bild: teure Lastspitzen und ungenaue Einkaufsfahrpläne trotz modernster Software.

Im Paper „Predictability of Electrical Loads in Various Domains: An Empirical AIBenchmarking Approach“, erschienen in der Fachzeitschrift „IEEE Xplore“, belegt ein Forschungsteam vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA nun: Wer komplexe Industrieprozesse rein datengetrieben und ohne einschlägige Fachkenntnisse automatisieren will, lässt viel Optimierungspotenzial liegen. Die Untersuchung von 80 Datensätzen über zwei Jahre zeigt, dass moderne Deep-Learning-Ansätze zwar mächtig sind, aber ohne maßgeschneiderte Datenintegration oft ihr Ziel verfehlen.

 

Industrie ist kein Gewerbe

 

Für ihre Studie unterzog ein Team um Lukas Baur vom Forschungsbereich Energiesysteme und -speicher am Fraunhofer IPA zwölf verschiedene Modellarchitekturen einem systematischen Vergleich. Das zentrale Ergebnis liefert wichtige Kennzahlen für Energiemanager: Während sich der zusammengefasste Strombedarf ganzer Regionen mit einer Fehlerquote von rund fünf Prozent sehr präzise vorhersagen lässt, ist die Varianz in der Industrie deutlich höher. Die Fehlerquote liegt hier im Mittel bei 28 Prozent. Generische Modelle glätten hier oft genau die Spitzen, die finanziell am meisten schmerzen.

Besonders interessant ist der Vergleich zum Gewerbe: Bürokomplexe oder der Handel sind mit 17,5 Prozent Fehlerquote deutlich besser prognostizierbar als Industriebetriebe. Das belegt, dass Algorithmen, die für Gewerbeimmobilien funktionieren, nicht eins zu eins auf die stark schwankenden Abläufe in der Fertigungsindustrie übertragbar sind.

 

Komplexität ist kein Garant für Präzision

 

Ein weiteres Kernergebnis der Studie ist, dass moderne und komplexe Deep-Learning-Architekturen nicht automatisch bessere Ergebnisse liefern als klassische Verfahren. Im direkten Vergleich zeigte sich, dass etablierte Machine-Learning-Methoden (beispielsweise „Random Forest“) robuster agieren, wenn die Datenbasis klein ist oder viele fehlerhafte Messwerte enthält. Klassische Statistik schlägt hier oft die komplexe KI. Moderne Deep-Learning-Modelle können ihr Potenzial erst dann ausspielen, wenn sie spezifisch auf den Anwendungsfall angepasst werden.

„Unsere Ergebnisse zeigen ganz klar: Den einen ›Master-Algorithmus‹ für die Energiewirtschaft gibt es nicht. Insbesondere in der Industrie sehen wir, dass selbst fortgeschrittene Modelle an ihre Grenzen stoßen, wenn der Dateninput wenig informativ oder die für die Prognose wichtigen Einflussfaktoren falsch verarbeitet werden. Unser Ansatz geht daher über reines Benchmarking hinaus: Wir kombinieren die passendsten Modelle vom Markt mit einer tiefen Integration von Produktionsplänen, Kalenderdaten und Wetterprognosen. Nur so entstehen individuelle Lösungen, die robust genug sind, um die Energiekosten wirklich zu senken“, sagt Baur. Er ist Experte für Prognosen und einer der Autoren der Studie.

 

Mehr ist nicht besser

 

Eine weitere Erkenntnis aus der Studie ist, dass sich der aus der Fachliteratur bekannte sogenannte Portfolio-Effekt bei Industrielastprognosen bislang nicht bestätigt. Dieser Effekt beschreibt, dass Prognosen einfacher werden, je mehr einzelne Lasten zusammengefasst werden, da sich Schwankungen gegenseitig ausgleichen. Vereinfacht gesagt lässt sich der gesamte Stromverbrauch Deutschlands leichter vorhersagen als der Verbrauch einzelner Unternehmen. In der vorliegenden Studie zeigt sich jedoch, dass die Unternehmensgröße und die damit verbundene große Zahl von Verbrauchern im industriellen Kontext nur einen geringen Einfluss auf die Genauigkeit der Prognose hat. „Die größere Datenbasis führt also kaum dazu, dass die Fehlerquote sinkt. Entscheidender ist die Struktur der Daten“, sagt Baur.

 

Neutralität und Fachexpertise für die Praxis

 

Die Studienautoren des Fraunhofer IPA positionieren sich hier eindeutig gegen den Trend der „Commodity-AI“, also leicht verfügbare, hochgradig standardisierte Algorithmen. Während Standard-Software versucht, jedes Problem mit dem gleichen Schema zu lösen, integriert der Ansatz des Fraunhofer IPA spezifisches Wissen aus dem jeweiligen Unternehmen, wie etwa Schichtpläne oder die Produktionslogik, direkt in die Modellarchitektur.

Für Industrieunternehmen und Plattformanbieter bedeutet das: „Der Schlüssel zu präzisen Prognosen liegt nicht im blinden Vertrauen auf einen Super-Algorithmus, sondern in der neutralen Auswahl und sauberen Vorbereitung der Daten“, erklärt Baur. Er und die anderen Studienautoren vom Fraunhofer IPA nutzen diese Erkenntnisse, um Unternehmen technologieoffen zu unterstützen. Neben der reinen Modellevaluierung liegt ihr Fokus dabei auf der Entwicklung individueller Lösungen, die externe Faktoren wie Wetter, Feiertage und Produktionsdaten standardisiert integrieren, um die Lücke zwischen theoretischer Machbarkeit und realer Kosteneinsparung zu schließen.

 

Quelle: Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA

 

 

Beitragsbild: Standardisierte Algorithmen bilden den Energieverbrauch einer komplexen Industrieproduktion nur unzureichend ab. Lastspitzen können sie oft nicht vorhersagen; Foto: Fraunhofer IPA/Rainer Bez.