Fazit
LLM-Agenten bringen Instandhaltung nur dann voran, wenn sie wie sicherheitsrelevante Software behandelt werden: on-prem, auditierbar, deterministisch, mit harten Grenzen. Ein generischer „Chatbot für die Werkhalle“ ist kein Produkt, sondern ein Risikotransfer. Bauen Sie zuerst Governance und Observability, modellieren Sie den Agenten als Workflow-Graph, sichern Sie Tool-Aufrufe ab und betreiben Sie alles im eigenen Perimeter. Souveränität ist hier kein politisches Statement, sondern eine technische Voraussetzung für verlässliche Intelligenz.

Wenn Sie das konsequent umsetzen wollen: Wir entwickeln solche Systeme seit Jahren in regulierten Industrien – von der Datenaufnahme bis zur Policy-Engine und Observability (→ alpitype.de/leistungen/). Unser Standpunkt ist klar: Souveränität ermöglicht Intelligenz – nicht umgekehrt.

FAQ

  • Wie messen wir „Halluzinationen“ ohne Ground-Truth?
  • Erzwingen Sie Zitierungen und messen Sie Zitierungsabdeckung. Führen Sie Konfliktindikatoren (widersprüchliche Quellen) und eine „I don’t know“-Rate ein. Ergänzen Sie ein Gold-Set aus kuratierten Aufgaben. Für Live-Daten nutzen Sie Shadow-Mode und vergleichen Vorschläge mit tatsächlichen Maßnahmen.

  • Welches Modell sollten wir on-prem einsetzen?
  • Wählen Sie so klein wie möglich, so groß wie nötig. Bei gutem Retrieval genügen oft 7–13B-Modelle in quantisierter Form. Größere Modelle nur für komplexe, stark kompositionslastige Diagnosen. Wichtig ist deterministisches Decoding, Grammar-Constraining und verlässliche Tool-Integration – nicht der Modellname.
  • Wie aktualisieren wir das Wissen, ohne Instabilitäten zu erzeugen?
  • Dokumentenaufnahme als Pipeline mit Versionierung: Jeder Index-Build bekommt eine Revision. Rollout via Blue/Green-Index mit Canary. Antworten enthalten die Index-Revision; bei Problemen rollen Sie zurück. Änderungen an Prompts/Policies laufen durch die gleiche Release-Pipeline.
  • Wie verhindern wir, dass der Agent ungewollte Aktionen im EAM auslöst?
  • Strikte Trennung: Read- und Write-Tools, standardmäßig Read-only. Schreibzugriffe nur mit idempotency_key, Dry-Run und policybasiertem Freigabe-Workflow (zwei Rollen, zwei Werke optional). Circuit Breaker, Timeouts und Allow-Listen sind Pflicht. Alles wird geloggt und ist reproduzierbar.
  • Können wir den Agenten mit Spracheingabe betreiben?
  • Ja, aber trennen Sie ASR/TTS klar von der Agentik. ASR läuft on-prem, Ergebnisse werden wie manuelle Texte behandelt (PII-Filter). Latenzbudgets und Fehlertoleranzen müssen neu kalibriert werden. Sprache erhöht Nutzerakzeptanz – ändert aber nichts an den Governance-Grundsätzen.

Über den Autor
Der Autor ist Industriesoftware-Architekt bei AlpiType. Er hat KI-Systeme in Produktion gebracht – von Computer-Vision in der Qualitätskontrolle bis zu Predictive Maintenance in der Textilfertigung – und verantwortet heute die technischen Entscheidungen rund um KI-Architekturen, On-Prem-Deployment und LLM-Agenten-Governance in regulierten Industrien.