• Unsupervised Anomaly Detection:
  • Funktioniert mit begrenzten Labeln und deckt „unbekannte Unbekannte“ ab.
  • In der Praxis robust, wenn man Betriebszustände sauber separiert (z. B. über Drehzahl und Last).
  • RUL-Modelle:
  • Brauchen echte Verschleißzyklen mit Ausfällen und lückenloser Historie. In Textil und Bahn selten verfügbar; wenn, dann oft durch Änderungen in Prozess/Design „distribution shift“ gefährdet.
  • Sinnvoll dort, wo geplante Überholungen standardisiert sind (z. B. definierte Lagerwechselintervalle in Flotten mit identischen Profilen) und genügend Zyklen vorliegen.
  • Hybride:
  • Anomalie am Edge, RUL-Schätzung on‑prem auf verdichteten Lebenszyklusfeatures; Edge zeigt „Trend“ statt kalendarischer Restlebenszeit.

Tradeoffs: Was man gewinnt und was man dafür aufgibt

Gewinne durch Edge‑Inferenz:

  • Drastische Bandbreitenreduktion: Statt 2 TB/Tag/Maschinenpark übertragen Sie 10–100 MB/Tag an Events/Features.
  • Souveränität und Compliance: Keine US‑Cloud-Pflicht, DSGVO-konforme Datenhaltung, IP‑Schutz.
  • Reaktionszeit: Millisekunden- bis Sekunden‑Latenz statt Netzwerkwabern.
  • Robustheit: Läuft auch bei Netzwerkausfall; Züge arbeiten offline und synchronisieren im Depot.
  • Datenschutz by Design: Rohdaten verlassen die Maschine nur bei klaren Anlässen und begrenzt.

Kosten/Nachteile:

  • Flottenmanagement‑Komplexität: Viele Edge‑Knoten wollen verwaltet, gepatcht, mit Zertifikaten versorgt werden. Ohne sauberes Device‑Management eskaliert der Betrieb.
  • Begrenzte Modellkomplexität: Kein 100‑Mio‑Parameter‑Netz am Cortex‑M. Dafür braucht es sinnvolle Feature Engineering und Quantisierung.
  • Debugging-Hürden: Probleme tauchen im Feld auf; Reproduktion erfordert Telemetrie, deterministische Builds und gute Logs.
  • Heterogenität: Unterschiedliche Maschinen, Sensorketten, OS‑Versionen. Standardisierung kostete in jedem Projekt mehr Zeit als die erste „KI“.
  • Sicherheit: Mehr Geräte = größere Angriffsfläche. PKI/TPM, Signaturen, minimaler Footprint sind Pflicht.

Wann Cloud‑Analyse sinnvoll ist:

  • Flottenweites Training auf großen, pseudonymisierten Feature‑Sätzen
  • „Rare event“ Mining mit zentral aggregierten Events
  • Simulationsgestütztes Pre‑Training (z. B. synthetische Signale) und Hyperparameter‑Suche
  • Kollaborative Modellentwicklung über Standorte – aber: Trainingsergebnisse wandern zurück on‑prem, Inferenz bleibt an der Kante

Praxis: Drei Szenarien aus Fertigung und Bahn

1) Textil: Lagerüberwachung an Ringspinnmaschinen

  • Ausgangslage: Häufige Klein-Störungen durch beginnenden Lagerverschleiß an Spindeln; hohe Drehzahlen, wechselnde Sortimente; POC mit Cloud scheiterte an Bandbreite und an fehlender Synchronisation.
  • Architektur:
  • Sensorik: 2× IEPE-Beschleuniger pro Aggregat, synchronisiert; Drehzahl vom Antrieb (Encoder)
  • Edge: ARM‑Gateway (i.MX8) in der Maschine; CMSIS‑DSP für FFT; Isolation Forest (100 Bäume); optional 1D‑Autoencoder (INT8, ~300 kB)
  • Zeit: PTP aus Maschinen‑IPC; Fenster 2048 Samples, 50 % Overlap
  • Speicher: 120 s Ringpuffer (Rohdaten) mit LZ4; 30 Tage Feature-Retention
  • Netzwerk: MQTT in Werks‑Broker; keine externe Cloud
  • Ergebnisse:
  • Bandbreite: <50 MB/Tag pro Maschine
  • Latenz: Anomalie‑Score <30 ms nach Fensterabschluss
  • Qualität: <1 falscher Alarm pro Maschine/Monat nach Kalibrierung; MTTD <24 h vor ausgeprägtem Fehlerbild
  • Betrieb: Updates als signierte Container; A/B‑Rollback <60 s, ohne Maschinenstopp
  • Learnings:
  • Kurtosis allein lärmig; Kombination aus Ordnungsenergie + Envelope brachte Stabilität.
  • Adaptive Schwellwerte pro Drehzahl‑Bucket halbierten Falschalarme.
  • SSD‑Schonung: noatime, Journaling‑Tuning, voralloziertes Ringfile, zentrale Log‑Drossel.

2) Bahn: Traktionsmotoren – Stromsignaturanalyse im Fahrzeug

  • Ausgangslage: Intermittierende Mobilfunkabdeckung; harte IT/OT‑Trennung; Ziel ist frühe Detektion von Stator-/Rotoranomalien ohne Ausbau der Motoren.
  • Architektur:
  • Sensorik: Stromzangen an drei Phasen, 10 kHz; Tachogeber für Ordnungsanalyse
  • Edge: lüfterloses x86‑Gateway (15 W) pro Traktionseinheit; Echtzeit‑Thread für Sampling/FFT; Prozessisolation für Inferenz
  • Inferenz: kNN‑Dichte im Ordnungsraum; später leichter 1D‑CNN‑Autoencoder (INT8) für harmonische Muster
  • Sync: GPS‑Zeit an Bord + lokaler PTP; PLL‑Abgleich für ADC
  • Kommunikation: Events lokal puffern; Bulk‑Sync per Ethernet im Depot
  • Integration: Depot‑On‑Prem nimmt Events; SAP PM generiert Inspektionsaufträge
  • Ergebnisse:
  • 70–90 % der relevanten Frühindikatoren als „gelb“ > eine Umlaufwoche vor Grenzwertverletzung
  • Zero‑Touch‑Betrieb im Feld über 6 Monate; Zertifikatsrotation via TPM‑gebundene mTLS
  • Kein Dauertransfer von Rohdaten; Event‑Payloads 50–200 kB inkl. Pre/Post
  • Learnings:
  • Latenzdeterminismus: CPU‑Affinity, isolcpus und abgeschaltetes Turbo‑Boost verringerten Jitter signifikant.
  • Fleet‑Drift: Winter/Sommer‑Betriebsprofile änderten Grundlast – Schwellwerte saisonal mit On‑Prem‑Policies adjustiert.

3) Zerspanung: Spindelüberwachung an Bearbeitungszentren

  • Ausgangslage: Hohe Oberflächenanforderungen, teure Ausschusskosten; Maschinen divers (Siemens/Heidenhain), IT‑Zugang restriktiv.
  • Architektur:
  • Sensorik: 1× Beschleuniger am Spindellager, 1× Temperatur; Drehzahl über NC‑Schnittstelle
  • Edge: x86‑IPC im Schaltschrank; OPC UA für NC‑Kontext; FFT+Envelope; One‑Class SVM
  • CMMS: Automatische Qualitäts‑Hold bei „rot“ über MES‑Integration
  • Ergebnisse:
  • 30–50 % weniger ungeplante Spindelstillstände nach 4 Monaten
  • Minimale Netzwerklast; reine Events/Features zum On‑Prem‑Core
  • Learnings:
  • Ohne saubere Drehzahl-Zuordnung (NC) waren Features unbrauchbar; Ordnungsanalyse Pflicht.
  • Ein einziges, robustes SVM‑Modell pro Spindeltyp schlug „neuronale Allzwecknetze“ im Edge‑Budget.

Konkrete Bausteine, die sich bewährt haben