Klassische Software lässt sich deterministisch prüfen; KI bringt Daten- und Modellvariabilität. Das ist beherrschbar – mit Strukturen:
- Daten-Governance on-prem: Datenspeicher, Feature Stores und Trainingsumgebungen sind unternehmenssouverän (keine externe Cloud, DSGVO-konform). Jede Datenquelle ist versioniert und referenzierbar (z. B. DVC, LakeFS).
- Modell-Lebenszyklus: Trainingskonfigurationen, Code, Hyperparameter, Seeds, Umgebung (Container-Hashes) sind Teil der Evidenz. Lineage vom Rohdatensatz bis zum Modell-Artefakt ist nachweisbar.
- Akzeptanzkriterien fachlich statt nur ML-metrisch: In der Fertigung sind SPC-Kennzahlen (z. B. Ppk) operational relevant; in Safety-Kontexten definieren wir Fehlertoleranzen, verknüpfen Performance mit Hazard-Auswirkungen und legen Abbruchbedingungen fest.
- Change-Impact für Daten: Neue Trainingsdaten sind eine Änderung am System. Impact-Analyse, Regressionstests gegen Golden Datasets, Monitoring auf Datendrift im Betrieb.
- Erklärbarkeit und Monitoring: Feature-Attribution, Fehlerklassifikation, Outlier-Detektion – nicht als Selbstzweck, sondern als Beleg der Wirksamkeit von Safety Envelopes und zur Root-Cause-Analyse.
- LLMs im Unternehmen: Keine Produktionsgeheimnisse oder personenbezogene Daten in offene APIs. Falls LLMs im Entwicklungsprozess oder als Komponente eingesetzt werden, dann on-premise mit vollständiger Observability und Governance (Prompt-/Antwort-Logs, Richtlinien, Rollenkonzepte, Audit-Trails). Genau hier setzt unsere Plattform Alpi-M an: Observability und Governance für LLM-Agenten in souveränen Umgebungen, integrierbar in bestehende on-prem CI/CD und Evidence-Flows.
Architektur- und Prozessmuster, die in der Praxis tragen
- Schnittstellen als Hartwährung: Gefrorene, versionierte Verträge zwischen Safety Cage und restlichem System. Contract-Tests laufen in der Pipeline, bevor etwas in einen sicherheitsrelevanten Pfad merge-fähig ist.
- Determinismus messbar machen: Latenz- und Jitter-Budgets pro Komponente, Worst-Case Execution Time (WCET) Analysen, Lock-Contention-Checks, Heap-Nutzung unterbinden oder strikt begrenzen in High-Criticality-Pfaden.
- Datenpfade härten: Klare Trennung zwischen qualifizierten und explorativen Pfaden. Explorative ML-Experimente dürfen nie unbeabsichtigt den qualifizierten Pfad berühren. Strikte Artefakt-Namenskonventionen, Signierung, Freigabeprozesse.
- Security-by-Design ist nicht optional: Threat Modeling (z. B. STRIDE), Härtung (CIS-Benchmarks), Secrets-Management on-prem, Schlüsselmaterial unter HSM, signierte Updates, Secure Boot. SBOM verpflichtend, mit automatisierten Vulnerability Alerts und definierten Remediation SLAs je Kritikalität.
- Toolchain-Qualifikation pragmatisch: Bewerten Sie, ob ein Tool Fehler einführen kann, die Tests nicht entdecken würden. Qualifizieren Sie selektiv. Dokumentieren Sie Vertrauen (z. B. durch Cross-Checks, Tool-Proven-in-Use, formale Reviews).
Anti-Patterns, die wir regelmäßig sehen – und wie man sie vermeidet
- „Agile bis zum Audit“: Monate lang Features bauen, dann ein hektisches Dokumentations-Finale. Lösung: Evidence-as-Code, ab Tag 1.
- „Scrum ersetzt Systemarchitektur“: Wenn der Scheduler die Safety-Risiken managen soll, ist das Kind schon im Brunnen. Lösung: Hazard-driven Architektur vor Sprint-Takt.
- „KI-Pilot ohne Souveränität“: Public-Cloud-Experiment mit Produktionsdaten, später Unzulässigkeiten. Lösung: von Anfang an on-prem und DSGVO-sicher; Modell-Lifecycle versioniert.
- „Compliance-Theater“: Formale Dokumente, die nicht zur Realität passen. Auditoren merken das. Lösung: erzeugte Evidenz muss maschinen- und menschenlesbar aus dem Build kommen – keine Word-Artistik.
- „Product Owner ohne Safety-Accountability“: Features werden priorisiert, aber Safety-Budgets verfehlt. Lösung: Technical Ownership mit klarer Verantwortung für Safety/Security/NFRs.
Beispielhafte Umsetzungsvignette aus Projekten
- Bahn: Fleet-Intelligence-System
- Problem: Zustandsdiagnose und Vorhersage von Ausfällen mit heterogenen Fahrzeugdaten, Offline-Zeiten, strengen IT-Security-Vorgaben.
- Ansatz: Edge-Connectoren mit gepufferten, signierten Telemetriestreams; on-prem Data Lake, Feature Store, Models im Shadow Mode; ODD-Begrenzung auf nicht-sicherheitskritische Subsysteme; Evidence-Pipeline mit Trace von Anforderung über Datenmerkmal bis Inferenzlog.
- Ergebnis: Iterative Ausweitung der ODD, keine Beeinflussung von Safety-of-Life-Funktionen, Auditierbarkeit der Daten- und Modellpfade.
- Fertigung: Visuelle Inspektion
- Problem: Ersetzen manueller Sichtprüfungen, ohne Falsch-Negative in sicherheitsrelevanter Stückliste.
- Ansatz: Simplex-Schema: KI identifiziert Defekte, konservativer Heuristik-Checker garantiert, dass potenzielle Defekte nie unentdeckt bleiben; SPC-basierte Akzeptanzkriterien; Freigabe in CRL-Stufen von Shadow bis Teilautomatisierung; Daten-Drift-Monitoring mit automatischer Rückstufung bei Metrikverletzung.
- Ergebnis: Produktivnutzen früh (Fehlteile-Heatmaps, Taktoptimierung), Sicherheitsgarantien intakt.
- Defense: Sichere, skalierbare Softwareplattform
- Problem: Air-gapped Deployments, proprietäre Funkprotokolle, strikte Supply-Chain-Kontrollen.
- Ansatz: Reproduzierbare Builds, signierte Artefakte, SBOM-Prüfung, deterministische Runtime-Profile; LLM-Unterstützung für Entwickler nur on-prem mit Alpi-M Governance; ADR-getriebene Architekturentscheidungen.
- Ergebnis: Kurze Integrationszyklen trotz Air-Gap, Audits bestehen auf Knopfdruck.
Schritt-für-Schritt-Einstieg in „Agil mit Struktur“
1) Standards klären, Compliance-Matrix bauen
- Welche Normen gelten? Welche Level (SIL/DAL)? Welche Tool- und Evidence-Anforderungen?
- Map auf Artefakte, Pipelines, Quality Gates. Definieren Sie eine Evidence-Ordnerstruktur und Zugriffspolitiken.
2) Requirements-Backbone und Traceability aufsetzen
- Req-IDs, semantische Struktur, bidirektionale Trace von Hazard über Systemanforderungen, Architektur, Code, Tests, Testläufe.
- Automatisierte Checks in der CI, die fehlende Traces blocken.
3) Hazard-driven Architektur und Safety Patterns wählen
- Safety Envelopes definieren, Monitore/Simplex planen, Partitionierung, Echtzeit- und Speicherbudgets festlegen.
- Schnittstellenverträge einfrieren, Contract-Tests bauen.
4) Evidence-as-Code CI/CD und Security-Härtung etablieren
- Coverage, Static Analysis, SBOM, Signierung, Repro-Builds, Audit-Paket-Generator.
- On-prem Runner, Air-Gap-Strategien, Artefaktprovenienz.
5) MVP-Strategie für KI-Komponenten definieren
- ODD, CRL-Stufen, Shadow/Advisory, Golden Datasets, Drift-Monitoring, Rückstufungskriterien.
- Daten- und Modell-Lineage in die Evidence-Pipeline integrieren.
6) Technical Ownership besetzen und befähigen
- Klare Verantwortlichkeit, Stop-the-line, ADR-Prozess, Schnittstellen-Governance.
- Eskalationspfade vereinbaren, wenn Safety- oder Evidence-Budgets reißen.
Ressourcen- und Souveränitätsaspekt