Die intelligente Fabrik

Nirgendwo schwellen die Datenberge schneller an als in der Produktion. Betriebe versuchen mit intelligenten Algorithmen sinnvolle Prognosen und Optimierungsmöglichkeiten herauszulesen.

vorlesen Druckansicht
Lesezeit: 10 Min.
Von
  • Bernd MĂĽller
Inhaltsverzeichnis

Nirgendwo schwellen die Datenberge schneller an als in der Produktion. Betriebe versuchen mit intelligenten Algorithmen sinnvolle Prognosen und Optimierungsmöglichkeiten herauszulesen.

In großen Werkshallen verrichten tausende Sensoren ihren Dienst. Sie messen Temperatur, Position, Luftqualität und vieles mehr. Wenn jeder Sensor jede Zehntelsekunde einen Wert liefert, kann man sich leicht ausrechnen, welche gewaltigen Datenberge sich über Wochen und Jahre anhäufen – "viel mehr als in anderen Anwendungsbereichen", sagt Prof. Oliver Niggemann vom Anwendungszentrum Industrial Automation des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung in Lemgo. Niggemann ist Experte für Big Data und vorausschauende Datenanalyse. Mit seinem Team entwickelt er Methoden, um der Datenflut Herr zu werden und daraus sinnvolle Entscheidungen abzuleiten, die zu einer sparsameren und störungsfreieren Produktion führen.

Das ist auch Frank Kienles Geschäft. Kienle ist beim Karlsruher Big-Data-Spezialisten Blue Yonder seit zwei Jahren für den Anwendungsbereich Industrie verantwortlich, davor war das 2008 von dem ehemaligen CERN-Forscher Prof. Michael Feindt gegründete Unternehmen vornehmlich im Handel aktiv. In die Prognose einbezogen werden beispielsweise Daten aus Warenwirtschaftssystemen oder direkt aus Filialen und Online-Shops oder aus zusätzlichen Services wie beispielsweise Wetterdiensten. In Fabriken stammen die Daten aus Sensoren an den Maschinen, aus der Produktionssteuerung oder aus sogenannten Loggern, die den Datenverkehr in der Fabrik mitlesen, etwa Steuerkommandos für Roboter. Außerdem gibt es immer mehr Kameras mit automatischer Bildverarbeitung zur Qualitätskontrolle, was die Datenmenge förmlich explodieren lässt.

Datengräber: Die Firmen gehen mit der Informationsflut unterschiedlich um. Die einen sind schon froh, wenn sie die Daten schnell genug speichern können. Sie schaufeln riesige Datengräber in der Hoffnung, irgendwann etwas damit anfangen zu können. Frank Kienle kennt viele Firmen, die auf solchen Datenbergen sitzen, die sie zum Teil über zehn Jahre angehäuft haben, leider ohne Plan, wofür das gut sein soll. Für die Experten von Blue Yonder ist das von Vorteil, denn um in die Zukunft schauen zu können, brauchen die Algorithmen historische Daten.

Die Kunst der Karlsruher ist, daraus relevante Informationen abzuleiten. Doch wo sind die Perlen im Datenozean? Blue Yonder überwacht die Sensordaten aller Maschinen und erkennt Unregelmäßigkeiten im Betrieb. Dabei es ist es aber entscheidend, vorab herauszufinden, welche Sensoren relevante Informationen beziehungsweise Erkenntnisse liefern können. Oft sind die Daten unauffällig, liefern keine eindeutigen Hinweise, aus denen man Prognosen ableiten kann. Dann bedarf es intensiver Diskussionen mit den Auftraggebern, ob eventuell die Fragestellung angepasst werden muss.

Klare Ziele: Vor allem muss klar sein, welche Ziele man verfolgen will. Geht es um mehr Effizienz? Der Wunsch nach strafferen Prozessen, geringerem Ressourcenverbrauch und vor allem niedrigeren Kosten treibt viele Unternehmen um. Klassiker bei Big Data in der Industrie ist die vorausschauende Wartung, die versucht, aus auffälligen Ereignissen und historischen Erfahrungen den Ausfall etwa von Maschinen und Anlagen vorherzusagen. Deshalb stöbern die Blue-Yonder-Algorithmen in den Daten am häufigsten nach Anzeichen von auffälligen Mustern, die möglicherweise auf einen Verschleiß hindeuten. Das ist nicht trivial. Denn um diese zu erkennen, muss man wissen, ob ein Prozess tatsächlich schneller und ressourcensparender ablaufen könnte und welche Betriebsabweichungen zum Ausfall einer Maschine führen können. Hier bedarf es Erfahrungswerte und des Austauschs mit den Auftraggebern. "Wir helfen den Kunden, ihre Probleme zu verstehen", sagt Kienle.

Günstig ist es, wenn bestimmte Entwicklungen in den Daten immer dieselben Ergebnisse nach sich ziehen. Ein Beispiel: Maschine X hatte in den vergangenen Jahren immer mal wieder zu große Fertigungstoleranzen. Wenn die Algorithmen aus den historischen Daten belegen können, dass der Fehler immer dann auftrat, wenn die Temperatur in der Halle über 30 Grad stieg, kann man daraus zusammen mit der Wettervorhersage eine Prognose erstellen und mit einer besseren Klimatisierung zu den entscheidenden Zeiten gegensteuern.

Im Projekt iProdict (Intelligent Process Prediction based on Big Data Analytics), das vom Bundesforschungsministerium gefördert wird, untersucht Blue Yonder zusammen mit der Saarstahl AG und weiteren Partnern einen intelligenten Ansatz zur teilautomatisierten Anpassung und Optimierung von Geschäftsprozessen. Ziel von iProdict ist es, das von der Saarstahl AG zur Produktionsüberwachung eingesetzte Sensornetzwerk mit der betriebswirtschaftlichen Ebene zu verbinden. Dies ermöglicht es, Qualitätsschwankungen in der Stahlverarbeitung – pro Jahr werden im Völklinger Stahlwerk rund 2,5 Millionen Tonnen Stahl erzeugt – frühzeitig zu entdecken und sie durch Anpassungen der Produktions- beziehungsweise Geschäftsprozesse zu vermeiden.