Wie Semantik-Drift ML-Vorhersagen zerstört
Wir zeigen exemplarisch, warum Predictive Maintenance mit ML-Modellen versagt, wenn sich in der Messkette Parameter ändern und zeigen einen Lösungsansatz.
(Bild: KI / iX)
- Stefan Maxones
In einem Holz verarbeitenden Betrieb lief ein Predictive-Maintenance-Modell für eine Holzpresslinie seit Monaten stabil. Es analysierte Druck- und Vibrationsdaten der Hauptwalzen und meldete Anomalien mit verlässlicher Präzision. Dann stieg die Fehlalarmrate an, während ein realer Lagerschaden unentdeckt blieb.
Die klassische IT-Analyse blieb ergebnislos: Die Datenpipeline arbeitete fehlerfrei, es gab keine Schemaänderungen im SQL-Server, keine Ausfälle im MQTT-Broker, keine auffälligen Latenzen. Auch einfache Driftmetriken auf der Ebene der Features, also der Eingangsgrößen des Modells, zeigten keine signifikanten Verschiebungen in Mittelwert oder Range. Das Dashboard war grün.
- Semantik-Drift in industriellen ML-Systemen entsteht durch unsichtbare Änderungen in der Messkette wie Sensortausch, SPS-Zyklusanpassung oder Deadband-Aktivierung, obwohl Datenpipelines fehlerfrei laufen.
- Observability muss bis in die OT-Schichten reichen, da Monitoring am Broker oder später semantische Verschiebungen in Sensorik, SPS und Edge-Gateway übersieht.
- Physikalische Data Contracts mit Parametern wie Abtastrate, Auflösung und Filter-ID sowie Sentinels verhindern Informationsverlust.
- ML-Modelle mĂĽssen als cyber-physische Systeme gesehen werden, die versionierte Messketten brauchen.
Tatsächlich hatte sich in der Messkette jedoch die Welt verändert. Im Zuge einer Wartung war ein Drucksensor ersetzt worden. Messbereich und Schnittstelle blieben gleich, die Anlage wurde ordnungsgemäß kalibriert. Außerdem hatte das Betriebsteam den SPS-Zyklus von 10 auf 15 Millisekunden angepasst, um Lastspitzen im Steuerungsnetz zu reduzieren, und im Historian ein Deadband aktiviert, um die Datenmenge zu begrenzen. Jede Maßnahme war plausibel. Zusammengenommen veränderten sie jedoch Sampling, Auflösung und Zeitverhalten. Das Modell erhielt weiterhin gültige Zahlen, aber sie repräsentierten nicht mehr dieselbe physikalische Realität wie im Training.
Das war die Leseprobe unseres heise-Plus-Artikels "Wie Semantik-Drift ML-Vorhersagen zerstört". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.