Operative Muster zur DSGVO‑Konformität:
- Rollenrechte strikt: Wer darf Modelle/Pipelines ändern? Wer darf Logs/Prompt‑Historien sehen?
- Zweckbindung dokumentieren: Für jeden Datensatz (z. B. Hallenkamera 12) ist klar, wofür er genutzt wird, wie lange er gespeichert bleibt, wer Zugriff hat.
- Nachvollziehbarkeit: Jede Modellversion, jeder Promptwechsel, jede Konfigurationsänderung ist im Audit‑Log. Für LLM‑Assistenten zusätzlich: Safety‑Filter (PII‑Redaktion, Policies), Prompt‑Injection‑Schutz, Ausstiegsbedingungen („Don’t Execute“-Gates), um ungewollte Aktionen zu verhindern.
4) Drei 90‑Tage‑Projekte, die realistisch Nutzen liefern
A) Wissensassistent für Service/Instandhaltung (RAG on‑prem)
Ziel: Techniker finden Antworten in Sekunden statt in Minuten – offline, DSGVO‑konform.
- Woche 1–2: Datenaufnahme
- Sammeln: PDF‑Handbücher, Prüfanweisungen, Änderungsmitteilungen, Tickets (ohne PII), FAQ‑Dokumente.
- Parser bauen: PDF → Text + Struktur (Abschnitte, Tabellen), einfache Normalisierung (Einheiten, Synonyme).
- PII‑Redaktion für Chat‑Kanal festlegen.
- Woche 3–4: Index & Embeddings
- Chunking nach semantischen Abschnitten (z. B. 300–800 Tokens), Titel/Hierarchie als Kontext.
- Embeddings on‑prem erzeugen; Vektorstore (pgvector) aufsetzen; Metadaten (Bauteil, Revision, Gültigkeitsdatum) indexieren.
- Woche 5–6: Retrieval‑Evaluierung
- 50–100 echte Fragen aus Tickets/Field‑Service, Gold‑Antworten durch Domänenexperten kuratieren.
- Metriken: Hit‑Rate@k, Antwortqualität per human rating; Iteration von Prompts, Reranker optional.
- Woche 7–8: UI & Rechte
- Schlanke Web‑App: Fragefeld, Quellenanzeige mit Abschnitt/Seitenzahl.
- Rollen: Nur Service/Qualität; Logging mit Pseudonymisierung.
- Woche 9–10: Pilot in einer Linie/einem Team
- Begleitendes Shadow‑Logging (welche Fragen fehlen?), Feedback‑Buttons, wöchentliche Verbesserungsrunde.
- Woche 11–12: Härtung
- Offline‑Updateprozess, Monitoring (Antwortlatenz, Fehlerrate), Backup/Restore, Schulung.
Betrieb:
- LLM‑Inference on‑prem (z. B. 7–13B‑Klasse, quantisiert), vLLM oder llama.cpp je nach Hardware.
- Antwortgenerierung strikt „grounded“: Nur mit zitierten Quellen, „I don’t know“-Fallback.
B) Visuelle Anomalieerkennung für Qualitätsprüfung
Ziel: Fehler schneller erkennen, menschliche Prüfer entlasten, ohne 10.000 gelabelte Fehlerbilder.
- Woche 1–2: Datenpipe
- Kamerastream anbinden, Bildfrequenz definieren, Trigger am Takt.
- Gold‑Sample‑Set „Gutteile“ sammeln (mehrere hundert reichen oft), konsistente Beleuchtung/Sicht.
- Woche 3–4: Baselines & Modell
- Unüberwachtes Verfahren (z. B. Autoencoder/Student‑Teacher/Embedding‑Vergleich) mit Gutteilen trainieren.
- Segmentierte Heatmaps für „wo ist die Abweichung“ generieren.
- Woche 5–6: Metriken & Threshold
- Labeling von 200–500 Stichproben mit echten Prüfern; definieren, wie teuer False Positives/Negatives sind.
- Schwellen je Bauteil/Variante kalibrieren.
- Woche 7–8: Edge‑Deployment
- Inferenz auf Edge‑PC/Jetson nahe der Kamera; API an Prüftisch/HMI anbinden.
- Latenzziel: stabil im Takt der Linie.
- Woche 9–10: Schulung & SOP
- Klarer Bedienerfluss bei Unsicherheiten; Feedback‑Klick für Nachlabeln/Verbesserung.
- Woche 11–12: Stabilisierung
- Drift‑Monitoring (Beleuchtung, Kamerawechsel), Re‑Training‑Fenster und Versionierung.
C) Vorausschauende Instandhaltung „light“ auf bestehenden Sensordaten
Ziel: Frühwarnungen vor Anomalien ohne Komplettumbau.
- Woche 1–2: Signalaufnahme
- OPC UA‑Nodes/MQTT‑Topics definieren, Zeitstempel synchronisieren, Samplingraten prüfen.
- Baseline‑Dashboards für RMS, Kurtosis, Temperatur.
- Woche 3–4: Regelbasiert starten
- Domänenbasierte Schwellen/Heuristiken implementieren; Alarme visualisieren, „Alarmmüdigkeit“ vermeiden.
- Woche 5–6: ML‑Layer
- Unüberwachtes Modell pro Aggregat (One‑Class/Autoencoder) – Ziel: „anders als normal“.
- Backtesting mit historischen Daten (wenn vorhanden).
- Woche 7–8: Pilot & Feedback
- In einem Werk/Anlage pilotieren, Alarme und tatsächliche Befunde korrelieren.
- Woche 9–12: Härtung
- Alarm‑SLA, Störfallprotokoll, geplante Re‑Trainings. Integration in CMMS (Ticket automatisch vorkonfigurieren).
Hardware‑Skizze für 90‑Tage‑Setups:
- 1× Inferenz‑Workstation im Serverraum (z. B. starker GPU‑Beschleuniger, 128 GB RAM)
- 1–2× Edge‑Kompaktrechner/Jetson an Kamera/Anlage
- 1× Storage (S3‑kompatibel oder NAS, 16–32 TB nutzbar)
- Netzsegment mit restriktiven Firewalls, VLAN für KI‑Dienste
- USV und basale Monitoring‑Sensorik (Temperatur, Platte)
5) Mittelstand vs. Konzern: Warum Sie schneller sein können
- Zugriff auf Domänenwissen: Ihre Meisterinnen, Prüfer, Disponentinnen sind greifbar. Nutzen Sie wöchentliche 30‑Minuten‑Reviews mit genau diesen Personen. Entscheidungen entstehen im Betrieb, nicht im Steering‑Komitee.
- Schlanke Governance: Sie brauchen Reproduzierbarkeit und Audit‑Logs – nicht 20 Freigabestufen. Ein Mini‑MLOps‑Prozess mit MLflow, Git, signierten Releases reicht, wenn er konsequent gelebt wird.
- Fokus auf eine Wertstrom‑Zelle: Statt „Enterprise‑Plattform“ erst ein Produkt in einer Linie, dann ausrollen. So bleiben Randbedingungen stabil, und die Lernkurve wird nicht verwässert.
- Architekturstil „wenige, starke Services“: Monolith mit klaren Schichten ist oft besser als zehn Microservices, die ein Zwei‑Personen‑Team kaum im Griff behält.
6) Qualitätssicherung: Metriken, die den Betrieb interessieren
- Metriken mit Geschäftssinn:
- Visuelle Prüfung: False Negative‑Quote gewichtet nach Fehlerkosten; Review‑Zeit pro Eskalation.
- RAG‑Assistent: Top‑k‑Hit‑Rate, Nutzerzufriedenheit, Zeitersparnis pro Ticket, Anteil „I don’t know“ (zu hoch → Coverage‑Problem).
- PdM: Vorwarnzeit vs. tatsächlicher Befund, Verhältnis „echte Störung“ zu „Alarm“.
- Akzeptanzkriterien vor dem Pilot definieren:
- „Go‑Live, wenn FN < X% bei Fehlerklasse A und Durchsatz ≥ Y Bilder/Takt.“
- „Assistent ersetzt Suchzeit ≥ 50% bei 80% der Anfragen in Bereich Z, mit Quellenangabe.“
- Testen im Schattenbetrieb:
- Erst parallel zum bestehenden Prozess mitloggen und bewerten; erst bei stabiler Qualität in Entscheidungen eingreifen.
- Canary‑Rollouts:
- Neue Modellversionen an 10% der Nutzer/Anlagen; Monitoring auf KPIs; automatisches Rollback bei Regressionen.
7) Fallstricke und Anti‑Patterns