3) Zeitreihen-MLOps in produktionsnahen Netzen
- Komponenten:
- Datenerfassung: OPC UA/Kafka/MQTT, Pufferung bei Netzproblemen.
- Speicherung: Timeseries-DB mit Komprimierung, Retention-Policy nach DSGVO und Betriebsbedarf.
- Feature-Pipeline: Sliding Windows, Domain-Features (z. B. RMS, Peak-to-Peak, Spektren).
- Modelle: Klassische Anomalieerkennung (z. B. Isolation Forest), Autoencoder oder einfache Schwellenverfahren. Komplexität nur, wenn sie messbar bessere Alarme erzeugt.
- Serving: Leichtgewichtig am Edge, OTA-Updates über signierte Container.
- Monitoring: Data-Drift, Ausfall der Sensorik, Alarmevaluierung mit Rückmeldung durch Instandhaltung.
4) Observability & Governance für LLM-Agenten
- Anforderungen:
- Nachvollziehbarkeit: Vollständige Audit-Logs (mit PII-Schutz), Prompt-/Kontext-Versionierung, Reproduzierbarkeit von Antworten.
- Policies: Rollenbasierte Steuerung, welche Funktionen ein Agent aufrufen darf; Whitelists für Systemkommandos.
- Qualität: Automatisierte Evals mit festen Fragensätzen, offline und in Shadow-Umgebung vor Rollout.
- Sicherheit: Kein externer Telemetrie-Export; Secret-Management on-prem; Netzwerksegmentierung.
- Praxis: Setzen Sie eine dedizierte Observability/Governance-Schicht auf Ihre LLM-Workloads, statt dies im Applikationscode zu verstecken. Das reduziert Betriebsrisiken und erleichtert Audits.
Ein 3‑Monats‑Fahrplan für das erste Projekt
Ziel: In 12 Wochen ein nutzbares System in einer Linie/Abteilung, mit klaren KPI und Governance.
Woche 1–2: Use-Case-Schärfung und Datencheck
- Prozessaufnahme vor Ort: Was ist das Entscheidungsproblem? Welche Informationen trifft heute der Mensch?
- KPI-Definition: Z. B. Reduktion der Fehlteile um X%, Reduktion Suchzeit pro Ticket um Y Minuten.
- Systemgrenzen: Welche Systeme müssen integriert werden (SPS/MES/ERP/DMS)?
- Dateninventur: Welche Sensoren/Kameras/Dokumente existieren? Datenqualität? Zugriffsrechte? DSGVO-Klassifizierung.
- Akzeptanzkriterien: Messbare Metriken, Maximalwerte für False Positives/Negatives, Antwortzeiten.
Woche 3–4: Instrumentierung und Minimal-Datensatz
- Technische Anbindung: OPC UA/MQTT, Dokumentencrawler, Kameratrigger.
- Minimal-Datensatz: Für CV 2–5k Bilder mit klaren Labels; für RAG 500–1000 Dokumente; für Zeitreihen 2–4 Wochen Historie.
- Baseline: Was leistet der aktuelle Prozess (z. B. manuelle Trefferquote, Durchlaufzeit)?
- Risikoanalyse: Datenschutz, OT-Security, Fallback-Strategie.
Woche 5–8: Prototyp in der Technik und Shadow-Betrieb
- Modellwahl: Starten Sie so einfach wie möglich (klassische Methoden, kleine LLMs, robuste Heuristiken).
- Evaluierung: Offline-Tests gegen definierte Fragen/Bildsätze/Zeitscheiben, anschließend Shadow-Modus in der Linie.
- Integration: Ergebnisübergabe an bestehende Systeme, Logging, Rechtekonzepte.
- Iteration: Fehleranalyse, Nachlabeln, feingranulare Schwellwerte.
Woche 9–12: Pilot unter Realbedingungen
- Aktivierter Betrieb an einem Arbeitsplatz/einer Linie. Fallback aktiv.
- Monitoring: Qualität (Precision/Recall), Nutzungsmetriken, Feedbackkanal mit der Linie/Abteilung.
- Härtung: Backup/Restore, Desaster-Szenarien, Rechte-Review, Dokumentation (Betriebshandbuch, Modellkarte).
- Entscheidung: Go/No-Go, Rollout-Plan, Re-Train-Zyklus, TCO-Kalkulation.
DSGVO und Datensouveränität in der Praxis
Souveränität ist nicht Marketing, sondern ein technischer Zustand:
- Datenklassifizierung: Welche Kategorien personenbezogener Daten sind betroffen? Welche Rechtsgrundlage? Minimieren, bevor Sie speichern.
- Verarbeitung auf eigenem Blech: Inferenz und Speicherung vollständig on-prem. Kein versteckter Telemetrie-Export in Bibliotheken und Container-Images.
- Zugriff und Rollen: Integration in AD/LDAP, fein granulierte Rollen für Lesen/Labeln/Deployment.
- Protokollierung und Retention: Audit-Logs manipulationssicher, Speicherfristen nach Zweck und DSGVO minimieren.
- Verschlüsselung: At rest und in transit. Geheimnisse im Secret-Management, nicht in Umgebungsvariablen verteilen.
- Lieferkette: Reproduzierbare Builds, signierte Container, interne Registry mit Mirror; keine „curl | bash“-Installationen aus dem Internet.
- Offline-Update-Prozess: Geprüfte Artefakte via Wechseldatenträger/gesichertem Transfer in gesperrte Netze. Dokumentierte Change-Requests.
Build vs. Buy für den Mittelstand
- Kaufen (oder Open-Source selbst hosten), wo Commodity:
- Container-Orchestrierung, Inference-Server, Vektor-Datenbank, Timeseries-DB, CI/CD und Observability.
- Bauen, wo Domänenwissen entscheidet:
- Feature-Engineering, Labels und Heuristiken, Prozessintegration, Evaluationssuiten, Alarmlogik, Fallback-Mechanismen.
- Vendor-Lock-in vermeiden:
- Setzen Sie auf offene Formate (ONNX), portable Modelle, austauschbare Datenbanken. Keine hart verdrahteten Managed-Services, die Sie nicht on-prem betreiben können.
Team-Setup: klein, fokussiert, verantwortlich
Ein umsetzungsstarkes Team für das erste Projekt umfasst typischerweise:
- Domänen-Owner (Produktions-/Instandhaltungsleiter): Verantwortlich für KPI, Dateninterpretation, Freigabe.
- Software Engineer (Integration): Schnittstellen zu SPS/MES/ERP/DMS, robuste Services.
- ML Engineer/Computer Vision Engineer: Modelltraining, Evaluierung, Inferenz-Pipeline.
- Data Engineer: Datenaufnahme, Qualität, Feature-Pipeline, Storage.
- QA/OT-Security (part-time): Test, Abnahmen, Risikoanalyse.
Wichtig: Eine Person hat die technische Ownership Ende-zu-Ende und entscheidet, was „fertig genug für den Pilot“ bedeutet.
Hardware pragmatisch dimensionieren
- Starten Sie mit dem, was vorhanden ist: Eine Workstation mit moderner GPU beschleunigt CV und LLM spürbar. Für reine RAG-Anwendungen reichen oft kleine Modelle auf CPU, wenn die Retrieval-Qualität stimmt.
- Edge statt Cloud: Gerade bei CV und Zeitreihen vermeidet Edge-Inferenz Latenz, Netzabhängigkeit und Datenschutzprobleme.
- Industrieumgebung beachten: Temperatur, Staub, Vibrations-Resilienz der Edge-Hardware, Wartungskonzepte (Filter, Lüfter).
- Skalierung: Horizontal mit weiteren Edge-Knoten statt sofortiger Zentralisierung. Modelle und Container müssen portabel sein.
Qualitätsmanagement und Sicherheit – ohne Buzzwords
- Modellkarten: Für jedes Modell eine kurze, technische Dokumentation: Trainingsdatenstand, bekannte Grenzen, Eval-Metriken, Einsatzgrenzen, Fallback-Regeln.
- Evals als Regressionstests: Fixe Datensätze/Fragenkataloge, die bei jeder Modelländerung laufen. Kein Rollout ohne bestandene Evals.
- Drift-Monitoring: Erkennen, wenn die Datenwelt sich ändert (neue Materialien, neue Kamera, Werkzeugwechsel). Alarmieren und Re-Train terminieren.
- Least Privilege: Dienste dürfen nur, was sie müssen. Agenten dürfen nur genehmigte Funktionen aufrufen.
- Mensch im Loop: Für Grenzfälle, Eskalation und kontinuierliches Lernen bleibt der Mensch entscheidend – geplant, nicht ad hoc.
Was Sie konkret nächste Woche tun können