- Der Zielprozess ändert sich gerade fundamental (neue Linie, neue Maschinen) – Daten von gestern helfen dann nicht.
- Es gibt keine Betreiberakzeptanz. Wenn der Schichtleiter nicht eingebunden ist, wird das System im Ernstfall umgangen.
- Der Nutzen hängt davon ab, menschliches Expertenurteil vollständig zu ersetzen. Starten Sie mit Assistenz, nicht mit Autonomie.
- Einfache Heuristiken lösen 80 % des Problems. Dann implementieren Sie zuerst diese – KI kann später Feinkorrekturen liefern.
Konkrete Umsetzungsszenarien
Szenario A: Visuelle End-of-Line-Prüfung
- Daten: 2 Kameras, 12 MP, 6 Bilder pro Produkt.
- Pipeline: Kamera -> Edge-Inferenz (TensorRT) -> Ergebnis + Crops ins Werknetz -> UI für Freigabe.
- KPI: False-Reject <= 2 %, Zusätzliche Taktzeit <= 200 ms.
- Betrieb: Edge-only, tägliche Synchronisation der Statistiken.
Szenario B: Instandhaltungsassistenz per RAG
- Daten: 3.000 PDFs (Handbücher, SOPs), 20.000 Tickets.
- Pipeline: Crawler + OCR -> Chunking + Metadaten -> Embeddings on-prem -> LLM 7B quantisiert -> Zitationspflicht.
- Governance: Keine externen API-Calls, Agenten dürfen nur DMS/ERP lesen. Audit-Trails mit Prompt/Antwort/Quellen.
- KPI: 80 % der Standardfragen mit Beleg beantwortbar, Latenz P95 < 1,5 s.
Szenario C: Frühwarnung Antriebsstrang
- Daten: Drehzahl, Temperatur, Vibration (100 Hz resampled), Wartungsevents.
- Pipeline: Feature-Engineering -> Basis-Anomalie -> Klassifikator -> Alerts in CMMS (read-only im Pilot).
- KPI: Median Vorwarnzeit ≥ 8 h, False Positives < 1/Schicht.
Warum „Souveränität ermöglicht Intelligenz“ praktisch stimmt
Wenn Sie Datenflüsse, Modelle und Agenten beherrschen, können Sie mutiger automatisieren: Sie wissen, wie ein Ergebnis zustande kam, können es auditieren, verbessern und – wenn nötig – zurückrollen. Ohne Souveränität bleibt KI entweder ein PowerPoint-Versprechen oder ein Risiko, das die IT zu Recht blockiert. Mit Souveränität wird sie zu einem industriellen Werkzeug.
FAQ
Frage 1: Müssen wir komplett on-prem gehen – oder ist ein hybrider Ansatz okay?
Antwort: Für produktive Inferenz mit sensiblen Daten empfehlen wir on-prem. Für Entwicklung, Vortraining oder einmalige Heavy-Jobs ist eine EU-Cloud-Phase praktikabel, solange keine produktiven Rohdaten das Werk verlassen. Artefakte (Modelle, synthetische/anon. Samples) wandern zurück on-prem. Netzseitig restriktiv bleiben, Updates per signierten Containern.
Frage 2: Brauchen wir zuerst einen Data Lake?
Antwort: Nein. Für die ersten 1–3 Use Cases genügt eine saubere, dünne Schicht: Postgres/TimescaleDB, ein Objekt-Store (MinIO), optional pgvector. Ein „Lakehouse“ lohnt sich erst, wenn Sie eine kritische Menge unterschiedlicher Daten/Teams haben. Im Mittelstand ist ein „thin platform“-Ansatz oft nachhaltiger.
Frage 3: Reichen Open-Source-Modelle und -Tools aus?
Antwort: Für viele Mittelstands-Use-Cases ja. 7–13B-LLMs plus gutes Retrieval, ONNX/TensorRT für Vision, pgvector für Suche – das deckt erstaunlich viel ab. Wichtig ist nicht das „größte Modell“, sondern Datenqualität, saubere Evaluierung und ein betreibbares System. Proprietäres kommt ins Spiel, wenn spezielle Domänenanforderungen oder Zertifizierungen es erzwingen.
Frage 4: Wie besetzen wir so ein Projekt mit kleinem Team?
Antwort: Minimal: 1 Product Owner aus dem Fachbereich, 1 Software/ML-Engineer mit End-to-End-Verständnis, 1 IT/Operations für Betrieb/Security. Bei Vision kommt Annotation/Qualitätssicherung hinzu. Externe Unterstützung kann Lücken schließen, aber die Betriebsverantwortung sollte intern verankert sein.
Frage 5: Wie vermeiden wir Vendor-Lock-in – auch bei LLM-Agenten?
Antwort: Standardisierte, on-prem-betreibbare Komponenten wählen (Postgres, MinIO, Keycloak, vLLM/TGI). Datenportabilität sicherstellen (offene Formate). Für LLM-Agenten Observability/Governance auf Ihrer Infrastruktur betreiben – z. B. mit einer Plattformklasse wie Alpi-M –, damit Policies, Logs und Test-Suiten Ihnen gehören und nicht einem externen SaaS.
Schluss
Der Mittelstand braucht keine „KI-Strategie als Buchwerk“, sondern belastbare Ergebnisse in 12 Wochen. Wählen Sie einen eng gefassten Prozess, definieren Sie harte Metriken, bauen Sie eine dünne, souveräne Architektur – und messen Sie. Wenn das erste System verlässlich arbeitet, skalieren Sie entlang derselben Muster in die Breite. Souveränität ist dabei kein Hemmschuh, sondern der Enabler: Wer seine Daten, Modelle und Agenten wirklich im Griff hat, liefert schneller, zuverlässiger und mit höherer Akzeptanz im Betrieb. Genau dann wird KI vom Hype zum Werkzeug.