- Private Cloud im Rechenzentrum des Unternehmens oder in einer europäischen Souveränitätsumgebung
- Infrastruktur: OpenStack oder Managed Private Cloud bei EU-Anbietern ohne US-Rechtseinfluss; Datenresidenz vertraglich abgesichert.
- Vorteile: Elastizität, zentrale Verwaltung.
- Trade-offs: Netzwerkpfade und Latenzen prüfen, klare Exit-Strategie definieren.
- Edge + Zentrale
- Verarbeitung Edge-nah (Bildverarbeitung, Vorfilter), zentrale Modelle/Indizes im RZ.
- Vorteile: Geringere Latenz/Traffic, robuste Produktion.
- Trade-offs: Rollout- und Update-Komplexität, konsistentes Logging sicherstellen.
DSGVO-Grundsätze technisch umsetzen:
- Datenminimierung: Maskieren/Filtern personenbezogener Daten vor Indexierung oder Training; Pseudonymisierungspipeline.
- Zweckbindung: Separate Speicherbereiche und Service-Accounts pro Use-Case; IAM erzwingt Zugriff nur für definierte Zwecke.
- Transparenz/Audit: Vollständige Protokollierung von Eingaben, Modellversionen, Quellen; unveränderliche Logs.
- Betroffenenrechte: Lösch- und Korrekturpfade über Indizes/Datenspeicher; Rebuild-Jobs für RAG-Indizes nach Korrekturen.
- Datenschutz-Folgenabschätzung (DPIA): Frühzeitig mit Data-Protection-Officer abstimmen; technische und organisatorische Maßnahmen dokumentieren.
Pragmatische KI: Drei 90‑Tage‑Projektpfade mit Meilensteinen
Pfad A: Dokumenten-RAG für Service/Qualität
- Woche 1–2: Scope definieren (z. B. Handbücher für 1 Produktfamilie), Quellsysteme anschließen, Dateninventur, DPIA-Check.
- Woche 3–4: OCR/Parsing-Pipeline, Chunking und Metadatenmodell; erster Indexlauf.
- Woche 5–6: On‑Prem LLM oder Antworterzeugung; UI als einfache Web-App, Antwort mit Quellen und Zitaten.
- Woche 7–8: Relevanz-Tuning (Chunk-Größen, Suchoperatoren, Re-Ranking), Zugriffskontrollen.
- Woche 9–10: Nutzerpilot mit 10–20 Power-Usern, Feedbacklogging.
- Woche 11–12: Härten (Monitoring, Backups, Indexportfolien), Abnahme.
Akzeptanzkriterien:
- ≥80% der Pilotanfragen verweisen auf korrekte Dokumentstellen.
- Antwortzeit unter definierter Schwelle auf Zielhardware.
- Vollständige Nachvollziehbarkeit je Antwort (Quellen, Modellversion, Prompt).
Pfad B: Visuelle Prüfung an einer Station
- Woche 1–2: Kamera-Setup prüfen, Beleuchtung optimieren, Referenzdatensatz aufbauen.
- Woche 3–4: Heuristische Basisregeln implementieren; ML-Backbone aufsetzen.
- Woche 5–6: Gemeinsame Entscheidungsschicht; Edge-Inferenzcontainer.
- Woche 7–8: Pilot parallel zum bestehenden Prozess (Shadow Mode), Metrikmessung.
- Woche 9–10: Schwellenwerte justieren, Fehlertypen ergänzen.
- Woche 11–12: Übergabe in kontrollierten Produktivbetrieb mit Rückfalloption.
Akzeptanzkriterien:
- Definierte Reduktion der Fehlklassifikationen im Vergleich zum manuellen Prozess.
- Zykluszeit im Taktfenster.
- Nachvollziehbarkeit aller Entscheidungen für Audit.
Pfad C: Anomalieerkennung an einer Maschinenklasse
- Woche 1–2: Sensorik-/Datenpfad validieren, Label-Stand klären, Golden Weeks anstoßen.
- Woche 3–4: Feature-Pipeline und Baseline-Modell.
- Woche 5–6: Schwellen/Hysterese mit Instandhaltung feintunen.
- Woche 7–8: Shadow Mode mit echten Alerts, Review-Boards.
- Woche 9–10: Integration in Leitstand/MES (nur Anzeige, keine Autostopps).
- Woche 11–12: Betriebskonzepte, Schulung, Abnahme.
Akzeptanzkriterien:
- Nützliche Alerts im Pilot, dokumentierte Fälle.
- Drift-Monitoring aktiv, Re-Train-Pfade definiert.
Mittelstand vs. Konzern: Warum kleinere Teams oft schneller liefern
- Kürzere Wege zu Domänenexperten. Statt drei Gremien gibt es oft eine Meisterrunde – schnelleres Labeln, schnelleres Tuning.
- Fokussierte Scope-Entscheidungen. Ein Produkt, eine Linie, ein Use-Case – weniger “Scope-Creep”.
- Weniger Tool-Sprawl. Ein Git, eine CI, ein Kubernetes-Cluster statt fünf Plattformen.
Was trotzdem nötig ist:
- Leichtgewichtige, aber echte Governance: ein technischer Owner, ein Risikoregister (Annahmen, Grenzen, Eskalationspfade), feste Freigaben für Modellwechsel.
- Reproduzierbare Infrastruktur: IaC (z. B. Ansible/Terraform), GitOps für Deployments, standardisierte Observability (Metriken, Logs, Traces).
- Exit-Strategien: Jede externe Abhängigkeit bekommt einen Plan B (z. B. austauschbare Vektor-DB, alternatives Embedding-Modell).
Architektur- und Modellentscheidungen: Trade-offs ohne Illusionen
- RAG vs. Fine-Tuning
- RAG zuerst, wenn Wissen in Dokumenten steckt und sich ändert.
- Leichtes Fine-Tuning/Adapter (z. B. LoRA) nur für Format-/Stil-Compliance; striktes Logging und Evaluierung.
- Modellgröße
- 8–13B-Modelle sind oft das beste Kosten-Nutzen-Verhältnis On‑Prem; größere Modelle nur, wenn messbarer Mehrwert.
- Quantisierung reduziert Hardwarebedarf; prüfen Sie Genauigkeitsverlust per Eval-Set.
- Vektor-DB-Auswahl
- Kriterien: On‑Prem‑Reife, Sicherheitsfeatures (RBAC, Verschlüsselung), Migrationspfade.
- Bewährte Retrieval-Heuristiken schlagen oft exotische ANN-Settings: gutes Chunking, deduplizierte Inhalte, Metadatenfilter.
- Bildverarbeitung
- Klassische Verfahren sind First-Class Citizens: Robust, deterministisch, auditierbar.
- ML dort, wo Variabilität hoch ist oder menschliche Subjektivität dominiert.
- Metriken
- Definieren Sie E2E-Metriken (z. B. “Zeit bis korrekte Antwort” statt nur “Top‑k Recall”).
- Evaluieren Sie auf echten, nicht “gebastelten” Fällen aus Ihrem Betrieb.
Betrieb und Governance: Damit KI im Alltag hält
- MLOps On‑Prem
- Versionierung: Modelle, Datensätze, Konfigurationen in Git und Artefakt-Registry.
- CI/CD: Automatische Tests (Funktion, Performance), kontrollierte Freigaben, signierte Container.
- Observability: Systemmetriken (GPU/CPU), Modellmetriken (Antwortlänge, Konfidenz, Halluzinationsindikatoren), Nutzungsmetriken.
- Sicherheit
- Air-Gap-Optionen für sensible Bereiche; Updates nur via freigegebene Artefakte.
- Strikte Egress-Policies; keine verdeckte Telemetrie in Containern.
- Secrets-Management On‑Prem; rollenbasiertes IAM, Least Privilege.
- Responsible AI im Industriemaßstab
- Prompt-/Antwort-Filter für PII, IP-Leaks; Whitelists/Blacklists für Ausgaben (z. B. keine Empfehlungen zu Sicherheitseinstellungen ohne Freigabe).
- Mensch-in-der-Schleife für kritische Entscheidungen; Deeskalationspfade.
- Audit: Jede Modellentscheidung ist rückverfolgbar (Inputs, Quellen, Modellversion, Parameter).