Frage: Wie viel Daten brauche ich für den Start?
Antwort: Für die ersten Wochen weniger, als oft angenommen. Entscheidend ist Konsistenz. Für visuelle Prüfungen reichen häufig 1–5k repräsentative Bilder pro Variante, wenn Beleuchtung und Perspektive stabil sind. Für PdM eignen sich wenige Wochen konsistenter Sensorik mit klarer Zeitbasis. Qualität vor Quantität.
Frage: Brauche ich zwingend GPUs?
Antwort: Für Bild‑Inference und lokale LLMs sind GPUs pragmatisch, vor allem für geringe Latenzen. Für reine Klassifikation auf Tabellendaten oder einfache Anomaliescores können CPUs reichen. Ein Edge‑IPC mit einer mittelstarken GPU pro Station/Maschine ist ein bewährter Startpunkt.
Frage: Ist Cloud nötig, um moderne LLM‑Funktionen zu nutzen?
Antwort: Nein. Ein lokaler Stack aus Inference‑Server, Vektorindex und strikter Zugriffskontrolle liefert bereits nutzbare RAG‑Funktionen. Der Vorteil: Keine externen Datenflüsse, vollständige Kontrolle, planbare Kosten. Wichtig ist saubere Observability und Governance, damit Agenten nicht „wild“ agieren.
Frage: Wie stelle ich DSGVO‑Konformität sicher?
Antwort: Verarbeiten Sie Daten zweckgebunden on‑prem, minimieren und pseudonymisieren Sie personenbezogene Daten, etablieren Sie Rollen‑ und Rechtekonzepte und dokumentieren Sie die Verarbeitung (inkl. DPIA bei Bedarf). Logdaten müssen redigiert werden. Externe Transfers vermeiden oder vertraglich und technisch sauber absichern.
Frage: Wie lange bis zur Produktion?
Antwort: Mit einem klar abgegrenzten Use Case, vorhandenen Daten und pragmatischer Architektur sind 12 Wochen bis zu einem produktionsnahen Betrieb realistisch. Kritisch sind frühzeitiger Datenzugang, feste Metriken und eine schlanke Entscheidungsstruktur.
Schluss
KI im Mittelstand ist kein Forschungsprojekt und kein Marketing‑Gag, sondern ein Software‑Engineering‑Thema mit OT‑Nähe, klaren Architekturen und Betriebspflichten. Wer klein, souverän und integriert beginnt – on‑prem, mit klarer Observability, Zugriffskontrolle und Fallbacks – hat nach drei Monaten belastbare Ergebnisse, die sich iterativ skalieren lassen. Entscheidend ist, den ersten funktionierenden, messbaren Baustein zu bauen – nicht die perfekte Zielarchitektur – und ihn dann unter Ihren Bedingungen weiterzuentwickeln.