KI im Mittelstand: Von der Idee zum produktiven System in 90 Tagen – ohne US‑Cloud und ohne Hype

Wenn ich heute als CTO oder Leiter Digitalisierung in einem mittelständischen Industrieunternehmen eine KI-Initiative starte, habe ich drei harte Randbedingungen:

  • Kleine, stark belastete Teams. Niemand hat Zeit für „KI-Labs“, die nach 12 Monaten eine bunte PowerPoint zeigen.
  • Datensouveränität. Produktionsdaten, Lieferantendaten, interne Dokumentation – alles geschäftskritisch und oft personenbezogen. US‑Clouds sind politisch oder vertraglich oft ein No-Go.
  • Erwartungsmanagement. Vorstand und Fachbereiche erwarten in Monaten, nicht in Jahren, sichtbaren Nutzen.

Dieser Artikel ist eine technische Handlungsanleitung. Kein Hype, keine Allgemeinplätze. Wir gehen konkret vor: Wo der Einstieg sinnvoll ist (und wo nicht), wie Sie eine DSGVO-konforme, on-premise-fähige Architektur aufsetzen, welche Projekte in 90 Tagen Ergebnisse liefern, und warum der Mittelstand gegenüber Konzernen oft im Vorteil ist – wenn er die richtigen Architekturentscheidungen trifft.

1) Wo der Einstieg Sinn macht (und wo nicht)

Guter KI-Startpunkt im Mittelstand bedeutet: klare Metrik, vorhandene Daten, begrenzte Integrationskomplexität. Drei Kategorien, die wir immer wieder erfolgreich sehen:

  • Visuelle Qualitätssicherung

Typischer Scope: Defekterkennung an einer Linie, Oberflächeninspektion, Vollständigkeitsprüfung in der Montage.
Voraussetzungen: Kameras (bestehend oder neu), stabile Beleuchtung, wenige Dutzend bis ein paar Tausend Beispielbilder.
Integrationsweg: Kamera-Stream auf Edge-Knoten, On-Device-Inferenz, Ergebnis an MES/PLC per OPC UA oder REST.
Metrik: FP/FN-Rate, Nacharbeitsquote, Taktzeit-Impact.

  • Zeitreihenbasierte Zustandsüberwachung

Typischer Scope: Vibrationen, Stromaufnahme, Temperaturverläufe – einfache Anomaliedetektion statt perfekter Restlebensdauerprognose.
Voraussetzungen: Sensor-Daten mit Minuten- bis Sekundenauflösung, mindestens einige Wochen Verlauf.
Integrationsweg: Gateways via MQTT/OPC UA, Speicherung in Timeseries-DB on-prem, Modelle offline trainieren, online inferieren.
Metrik: Frühwarnzeit, Reduktion ungeplanter Stopps, Anzahl „False Alarms“.

  • Dokumentengetriebene Assistenz

Typischer Scope: Wartungsleitfäden, Störungsdatenbanken, interner Wissenszugang für Service/Produktion.
Voraussetzungen: PDFs, Handbücher, Tickets – idealerweise schon versioniert (DMS/Share).
Integrationsweg: Retrieval-Augmented Generation (RAG) mit offenem LLM on-prem, Zugriff über Browser/Terminal.
Metrik: Zeitersparnis pro Ticket, First-Fix-Rate, Zufriedenheit der Techniker.

Antipatterns für den Start:

  • „Wir bauen erst einen Data Lake und dann Use Cases.“ In der Praxis verbrennen Sie 6–12 Monate. Besser: Datenpipelines gezielt pro Use Case, wiederverwendbar konzipiert.
  • „Wir machen End-to-End-Agenten, die alles automatisieren.“ Ohne Prozesszerlegung und Guardrails riskant. Starten Sie mit Assistenz und klaren Freigabeschritten.
  • „Wir geben alle Daten in eine API und ‚sehen mal‘.“ Ohne Datenklassifizierung und Governance entsteht Shadow-IT und Compliance-Risiko.

2) Datensouveränität in der Praxis: DSGVO-konforme KI ohne US‑Cloud

Souveränität heißt: Sie kontrollieren Speicherort, Zugriff, Modellverhalten und Audit. Architekturprinzipien, die sich bewährt haben:

  • Datenhaltung on-prem oder in EU-eigentümergeführten Clouds

Praktisches Setup on-prem:

  • Objekt-Storage: MinIO (S3-kompatibel) mit Server-Side-Encryption.
  • Datenbanken: Postgres/TimescaleDB; für Vektorsuche pgvector oder eine dedizierte Vektordatenbank, wenn nötig.
  • Secrets und Identity: Vault/Sealed Secrets; SSO via Keycloak (OpenID Connect).
  • Container-Orchestrierung: Kubernetes (k3s für Edge, K8s im RZ).
  • Modell- und Pipeline-Governance
  • Model Registry: Versionierung, lineage, Freigabeprozesse (z. B. MLflow Model Registry oder ein internes Artifact-Repo).
  • Feature Store: Wiederverwendbarkeit von Merkmalen (z. B. Feast).
  • Reproduzierbarkeit: Train-/Infer-Pipelines als Code (Argo Workflows oder Airflow), GitOps-Deployment (Argo CD).
  • Datenschutz by Design
  • PII-Reduktion am Ingress: Pseudonymisierung/Maskierung vor Persistierung (Regex + NER; definierte Policies).
  • Datenminimierung: Nur Merkmale speichern, die für die Metrik nötig sind; Rohdaten-Retention mit Fristen.
  • Zweckbindung: Pro Use Case eine Datendomäne, eindeutige Consent-/Rechtsgrundlage dokumentiert (in Abstimmung mit Datenschutz).
  • Netzwerksicherheit und Isolierung
  • Zero-Trust-Grundsatz: Service-zu-Service-MTLS, least privilege, kein „flat network“ zwischen OT und IT.
  • Air-gapped Trainingszonen, kontrollierte Artefaktübergabe (signierte Modelle, SBOMs).
  • Ausgehende Verbindungen für LLMs standardmäßig blockieren, nur definierte RAG-Quellen whitelisten.
  • Auditierbarkeit
  • Vollständige Nachvollziehbarkeit: Datenversionen, Feature-Versionen, Modell-Hash, Training-Config, Inferenz-Logs.
  • Für LLMs: Prompt/Response-Logging mit PII-Redaktion, Entscheidungspfade, Quellenzitate bei RAG.

Diese Muster vermeiden US‑Cloud-Abhängigkeiten und lassen sich mit Standard-Hardware im Rechenzentrum oder auf Edge-Knoten deployen (GPU/TPU je nach Workload, häufig genügen 1–2 GPUs pro Standort für den Start).

3) Ein 90‑Tage‑Plan, der Ergebnisse liefert

Phase 0 (Woche 0–1): Problem- und Metrikdefinition

  • Business-Metrik festlegen: z. B. -20% Nacharbeit, +15% First-Fix-Rate, -30 Minuten pro Störungsfall.
  • Technische Metrik ableiten: Precision/Recall, Mean Time to Detect, Antwortqualität in Benchmarks.
  • Scope abgrenzen: genau eine Linie, genau ein Maschinentyp, genau ein Dokumentkorpus.

Phase 1 (Woche 1–3): Datenzugang und Baseline

  • Zugriff klären: OPC UA/MQTT für Sensorik; Kamerastreams; DMS/Share für Dokumente.
  • Dateninventur: Volumen, Formate, Lücken; PII-Klassifizierung.
  • Baseline bauen: Heuristik, klassische Methoden (z. B. Schwellwerte), damit Verbesserungshebel messbar sind.

Phase 2 (Woche 3–6): Modell-MVP und Edge-Infrastruktur

  • CV: Von Klassifikation/Detektion starten; ONNX-Export; Int8-Quantisierung testen.
  • Zeitreihen: Erst Anomaliedetektion, dann ggf. Prognosen; Sliding Windows; einfache Features (RMS, Kurtosis, FFT-Peaks).
  • LLM/RAG: Dokumente extrahieren (PDF->HTML), Chunking mit semantischen Grenzen, Vektorspeicher aufsetzen; offenes LLM on-prem serven.
  • Edge/On-prem: k3s/K8s-Cluster, MinIO, Postgres, MLflow; Observability (Prometheus/Grafana, Loki) aufsetzen.

Phase 3 (Woche 6–9): Integration in den Prozess

  • UX vor Industriekunst: Einfache Weboberfläche oder HMI-Plugin; klare Ampelzustände; Feedback-Button für Operator.
  • Rückkanal bauen: Labels/Feedback landen in einem dedizierten Topic/DB, werden versioniert.
  • Safety: Fallback-Modus, Konfidenzschwellen, Escalation-Path.