3) Zeitreihen-MLOps in produktionsnahen Netzen

  • Komponenten:
  • Datenerfassung: OPC UA/Kafka/MQTT, Pufferung bei Netzproblemen.
  • Speicherung: Timeseries-DB mit Komprimierung, Retention-Policy nach DSGVO und Betriebsbedarf.
  • Feature-Pipeline: Sliding Windows, Domain-Features (z. B. RMS, Peak-to-Peak, Spektren).
  • Modelle: Klassische Anomalieerkennung (z. B. Isolation Forest), Autoencoder oder einfache Schwellenverfahren. Komplexität nur, wenn sie messbar bessere Alarme erzeugt.
  • Serving: Leichtgewichtig am Edge, OTA-Updates über signierte Container.
  • Monitoring: Data-Drift, Ausfall der Sensorik, Alarmevaluierung mit Rückmeldung durch Instandhaltung.

4) Observability & Governance für LLM-Agenten

  • Anforderungen:
  • Nachvollziehbarkeit: Vollständige Audit-Logs (mit PII-Schutz), Prompt-/Kontext-Versionierung, Reproduzierbarkeit von Antworten.
  • Policies: Rollenbasierte Steuerung, welche Funktionen ein Agent aufrufen darf; Whitelists für Systemkommandos.
  • Qualität: Automatisierte Evals mit festen Fragensätzen, offline und in Shadow-Umgebung vor Rollout.
  • Sicherheit: Kein externer Telemetrie-Export; Secret-Management on-prem; Netzwerksegmentierung.
  • Praxis: Setzen Sie eine dedizierte Observability/Governance-Schicht auf Ihre LLM-Workloads, statt dies im Applikationscode zu verstecken. Das reduziert Betriebsrisiken und erleichtert Audits.

Ein 3‑Monats‑Fahrplan für das erste Projekt

Ziel: In 12 Wochen ein nutzbares System in einer Linie/Abteilung, mit klaren KPI und Governance.

Woche 1–2: Use-Case-Schärfung und Datencheck

  • Prozessaufnahme vor Ort: Was ist das Entscheidungsproblem? Welche Informationen trifft heute der Mensch?
  • KPI-Definition: Z. B. Reduktion der Fehlteile um X%, Reduktion Suchzeit pro Ticket um Y Minuten.
  • Systemgrenzen: Welche Systeme müssen integriert werden (SPS/MES/ERP/DMS)?
  • Dateninventur: Welche Sensoren/Kameras/Dokumente existieren? Datenqualität? Zugriffsrechte? DSGVO-Klassifizierung.
  • Akzeptanzkriterien: Messbare Metriken, Maximalwerte für False Positives/Negatives, Antwortzeiten.

Woche 3–4: Instrumentierung und Minimal-Datensatz

  • Technische Anbindung: OPC UA/MQTT, Dokumentencrawler, Kameratrigger.
  • Minimal-Datensatz: Für CV 2–5k Bilder mit klaren Labels; für RAG 500–1000 Dokumente; für Zeitreihen 2–4 Wochen Historie.
  • Baseline: Was leistet der aktuelle Prozess (z. B. manuelle Trefferquote, Durchlaufzeit)?
  • Risikoanalyse: Datenschutz, OT-Security, Fallback-Strategie.

Woche 5–8: Prototyp in der Technik und Shadow-Betrieb

  • Modellwahl: Starten Sie so einfach wie möglich (klassische Methoden, kleine LLMs, robuste Heuristiken).
  • Evaluierung: Offline-Tests gegen definierte Fragen/Bildsätze/Zeitscheiben, anschließend Shadow-Modus in der Linie.
  • Integration: Ergebnisübergabe an bestehende Systeme, Logging, Rechtekonzepte.
  • Iteration: Fehleranalyse, Nachlabeln, feingranulare Schwellwerte.

Woche 9–12: Pilot unter Realbedingungen

  • Aktivierter Betrieb an einem Arbeitsplatz/einer Linie. Fallback aktiv.
  • Monitoring: Qualität (Precision/Recall), Nutzungsmetriken, Feedbackkanal mit der Linie/Abteilung.
  • Härtung: Backup/Restore, Desaster-Szenarien, Rechte-Review, Dokumentation (Betriebshandbuch, Modellkarte).
  • Entscheidung: Go/No-Go, Rollout-Plan, Re-Train-Zyklus, TCO-Kalkulation.

DSGVO und Datensouveränität in der Praxis

Souveränität ist nicht Marketing, sondern ein technischer Zustand:

  • Datenklassifizierung: Welche Kategorien personenbezogener Daten sind betroffen? Welche Rechtsgrundlage? Minimieren, bevor Sie speichern.
  • Verarbeitung auf eigenem Blech: Inferenz und Speicherung vollständig on-prem. Kein versteckter Telemetrie-Export in Bibliotheken und Container-Images.
  • Zugriff und Rollen: Integration in AD/LDAP, fein granulierte Rollen für Lesen/Labeln/Deployment.
  • Protokollierung und Retention: Audit-Logs manipulationssicher, Speicherfristen nach Zweck und DSGVO minimieren.
  • Verschlüsselung: At rest und in transit. Geheimnisse im Secret-Management, nicht in Umgebungsvariablen verteilen.
  • Lieferkette: Reproduzierbare Builds, signierte Container, interne Registry mit Mirror; keine „curl | bash“-Installationen aus dem Internet.
  • Offline-Update-Prozess: Geprüfte Artefakte via Wechseldatenträger/gesichertem Transfer in gesperrte Netze. Dokumentierte Change-Requests.

Build vs. Buy für den Mittelstand

  • Kaufen (oder Open-Source selbst hosten), wo Commodity:
  • Container-Orchestrierung, Inference-Server, Vektor-Datenbank, Timeseries-DB, CI/CD und Observability.
  • Bauen, wo Domänenwissen entscheidet:
  • Feature-Engineering, Labels und Heuristiken, Prozessintegration, Evaluationssuiten, Alarmlogik, Fallback-Mechanismen.
  • Vendor-Lock-in vermeiden:
  • Setzen Sie auf offene Formate (ONNX), portable Modelle, austauschbare Datenbanken. Keine hart verdrahteten Managed-Services, die Sie nicht on-prem betreiben können.

Team-Setup: klein, fokussiert, verantwortlich

Ein umsetzungsstarkes Team für das erste Projekt umfasst typischerweise:

  • Domänen-Owner (Produktions-/Instandhaltungsleiter): Verantwortlich für KPI, Dateninterpretation, Freigabe.
  • Software Engineer (Integration): Schnittstellen zu SPS/MES/ERP/DMS, robuste Services.
  • ML Engineer/Computer Vision Engineer: Modelltraining, Evaluierung, Inferenz-Pipeline.
  • Data Engineer: Datenaufnahme, Qualität, Feature-Pipeline, Storage.
  • QA/OT-Security (part-time): Test, Abnahmen, Risikoanalyse.

Wichtig: Eine Person hat die technische Ownership Ende-zu-Ende und entscheidet, was „fertig genug für den Pilot“ bedeutet.

Hardware pragmatisch dimensionieren

  • Starten Sie mit dem, was vorhanden ist: Eine Workstation mit moderner GPU beschleunigt CV und LLM spürbar. Für reine RAG-Anwendungen reichen oft kleine Modelle auf CPU, wenn die Retrieval-Qualität stimmt.
  • Edge statt Cloud: Gerade bei CV und Zeitreihen vermeidet Edge-Inferenz Latenz, Netzabhängigkeit und Datenschutzprobleme.
  • Industrieumgebung beachten: Temperatur, Staub, Vibrations-Resilienz der Edge-Hardware, Wartungskonzepte (Filter, Lüfter).
  • Skalierung: Horizontal mit weiteren Edge-Knoten statt sofortiger Zentralisierung. Modelle und Container müssen portabel sein.

Qualitätsmanagement und Sicherheit – ohne Buzzwords

  • Modellkarten: Für jedes Modell eine kurze, technische Dokumentation: Trainingsdatenstand, bekannte Grenzen, Eval-Metriken, Einsatzgrenzen, Fallback-Regeln.
  • Evals als Regressionstests: Fixe Datensätze/Fragenkataloge, die bei jeder Modelländerung laufen. Kein Rollout ohne bestandene Evals.
  • Drift-Monitoring: Erkennen, wenn die Datenwelt sich ändert (neue Materialien, neue Kamera, Werkzeugwechsel). Alarmieren und Re-Train terminieren.
  • Least Privilege: Dienste dürfen nur, was sie müssen. Agenten dürfen nur genehmigte Funktionen aufrufen.
  • Mensch im Loop: Für Grenzfälle, Eskalation und kontinuierliches Lernen bleibt der Mensch entscheidend – geplant, nicht ad hoc.

Was Sie konkret nächste Woche tun können