In vielen Umgebungen ist das Interface Teil der Sicherheitskette. Dann gelten zusätzliche Prinzipien:

  • Zustandsmaschinen explizit machen
  • UI folgt einer klaren Zustandslogik: Normalbetrieb, Anomalie erkannt (Empfehlung), Eskalation, Freigabe zur Aktion, Aktion ausgeführt, Freigabe entzogen, Rückkehr zum Normalbetrieb. Sichtbare Markierungen, keine impliziten Übergänge.
  • Rückfallebenen zeigen: „KI nicht verfügbar“, „Sensorqualität unzureichend“, „Zeitquelle unsicher“. Bediener müssen sofort sehen, welche Schutzebene greift.
  • Autorität kontrolliert übertragen
  • Kein Direktzugriff der KI auf Aktoren. Stattdessen ein Plan-Vorschlag (parametrisiert), menschliche Freigabe, anschließend deterministisches Ausführen durch das Steuerungssystem.
  • Für destruktive/irreversible Aktionen gilt mindestens eine zusätzliche Schranke: zweite Person, Rolle mit höherer Autorität oder Zeitverzögerung mit Abbruchfenster.
  • Forensik-freundliches Logging
  • Jede Empfehlung, jede Ablehnung, jede Begründung, jedes Model- und Prompt-Update in einer unveränderlichen Timeline. Im UI filter- und exportierbar. Zeit ist hart synchronisiert zur Prozesszeit.

5) LLM-Agenten sinnvoll einbinden – mit Observability statt Bauchgefühl

LLM-gestützte Komponenten sind in der Industrie nützlich, wenn sie:

  • natürlichsprachliche Abfragen über Telemetrie, Logs und Wartungshistorien ermöglichen („Zeig mir alle Motoren der Linie 2 mit steigender Lagertemperatur in den letzten 8 Stunden und vergleiche mit ähnlichen Mustern letzte Woche“),
  • Checklisten und SOPs kontextualisiert zusammenfassen („Für Störung X: Prüfschritte A–E, basierend auf diesen Signalen und letzten Fällen“),
  • heterogene Ereignisfluten zu einer priorisierten Lageeinschätzung verdichten.

Grenzen und Guardrails:

  • Keine autonome Aktorsteuerung. LLM schlägt vor, Mensch bestätigt, deterministisches System führt aus.
  • Antworten sind immer mit Evidenz verknüpft: verwendete Signale, Dokumentstellen, Zeitbereiche. Keine „nackten“ Behauptungen.
  • Tool-Use ist sichtbar: Wenn das Modell externe Werkzeuge nutzt (Abfragen, Skripte), werden die Aufrufe und Ergebnisse in einer für Menschen lesbaren Kurzform angezeigt.
  • Versionen und Policies im UI: Modellversion, Prompt-/Policy-Revision sichtbar; Änderungen erscheinen in der Timeline.

Observability-UI für Agenten (Governance):

  • Eingaben/Ausgaben pro Anfrage, inkl. Quellenauflistung. Keine internen Gedankenprozesse, sondern eine nachvollziehbare Kette aus Frage, abgerufenen Belegen und Antwort.
  • Fehlerzustände klar: Timeout, Tool-Fehler, Rate-Limit, unzureichende Belege. Vorschläge werden dann als „unsicher – bitte präzisieren“ gekennzeichnet.
  • Vergleichsansichten über Versionen: Dieselbe Frage unter neuer Modell-/Policy-Version, Unterschiede auf einen Blick. So erkennen Teams Drift ohne Ratespiel.

Praktisch heißt das: Wir bauen die LLM-Schicht wie jedes andere kritische Subsystem – mit Instrumentierung, Protokollierung und sichtbaren Grenzen. Eine Agent-Observability- und Governance-Oberfläche ist kein Extra, sondern Pflichtteil eines industriellen LLM-Deployments.

6) Accessibility in industriellen Umgebungen

Die Umgebung bestimmt die Interaktion:

  • Handschuhe, Staub, Öl, Vibrationen: Große, klar getrennte Ziele; Buttons mit deutlich unterscheidbaren Formen; großzügige Abstände. Keine winzigen Toggles.
  • Sonnenlicht und wechselnde Beleuchtung: Hoher Kontrast, anpassbare Themen, blendfreie Farbwahlen. Wichtige Informationen zusätzlich durch Icons und Text.
  • Lärm: Akustische Alarme sind nur ergänzend. Visuelle und – auf mobilen Geräten – haptische Signale sind oft wirksamer.
  • Mehrsprachigkeit und Einheiten: Texte in einfacher, fachlich korrekter Sprache; Einheiten klar am Wert; Datum/Uhrzeitformate konsistent; Zeitzonen-Verwechslungen vermeiden.
  • Bedienmodi: Touch, Hardwaretasten, Stift – je nach Gerät. Kritische Aktionen nicht allein auf wackelige Gesten stützen.

Ein kleiner, aber oft vergessener Punkt: Der „Hush“- oder Stummschaltfluss für Alarme braucht eigene Sorgfalt. Temporäres Stummschalten ohne Ursache zu verschleiern schadet; ein gut gestalteter Hush zeigt, wie lange, warum, von wem und was im Hintergrund trotzdem weiter überwacht wird.

7) Validierung und Metriken: Messen, was am Bedienplatz zählt

Wir verbessern, was wir messen – und zwar unter Realbedingungen, nicht nur im Büro-WLAN.

Sinnvolle Metriken:

  • Bediener-sichtbare Latenz: Zeit von Ereignis bis zur verlässlichen Sichtbarkeit im UI. Enthält Erfassung, Verarbeitung, Transport und Rendering. Sichtbare Warnhinweise, wenn überschritten.
  • Alarm-Verweildauer: Von Auslösung bis Bestätigung und bis Abhilfe. Hilft, Triage und Eskalationspfade zu bewerten.
  • Vorschlagsannahme und Korrekturrate: Wie oft folgen Bediener KI-Empfehlungen, und wie oft müssen sie sie nachträglich korrigieren? Das zeigt Kalibrierung und Vertrauen – beides UI-Themen.
  • Fehlbedienungsindikatoren: Häufige Undo-Aktionen, überraschende Navigationen, verlassene Dialoge. Deutet auf unklare Beschriftungen oder riskante Interaktionsmuster hin.
  • Stale-Quote: Anteil der Zeit, in der einzelne Widgets veraltete Daten zeigen. Leitet technische und UI-Optimierungen ab.

Testaufbau:

  • Szenarioreplays mit echten Telemetriedaten. Die UI muss bei Alarmfluten, Netzwerkunterbrechungen und Clock-Drift klar bleiben.
  • Handschuh-/Blendtests am realen Gerät. Klickpfade messen, Fehlklicks zählen, Interaktionskosten senken.
  • Rollenbasierte Tests. Ein Feature, das für Ingenieure toll ist, kann Bediener stören. Trennen, nicht mischen.

8) Zwei Beispielmuster aus der Praxis

  • Visuelle Qualitätskontrolle in der Fertigung
  • Problem: Sekunden- bis Minutenrhythmen, hohe Stückzahlen, Entscheidungen im Fluss. Die KI (Bildverarbeitung) liefert Treffer mit Bounding Boxes, Score und Verdachtstypen.
  • UI-Muster: Die Produktionsübersicht zeigt pro Linie eine Queue mit „verifizieren/ablehnen“ in einem Handgriff. Die Evidenz (Zoom auf Fehlerstelle, Vergleich mit letzten akzeptierten Grenzfällen) steht direkt daneben. Ablehnungspflicht: kurzer Grund. Ein Heatmap-Board hat keinen operativen Wert; Handlungsbuttons schon.
  • Trade-off: Strenge Limitierung an erklärenden Details im Hauptfluss, tiefe Analysen nur im Ingenieurmodus. So bleibt die Taktzeit stabil.
  • Flottenintelligenz für Schienenfahrzeuge
  • Problem: Stunden- bis Tagesrhythmen, geografische Verteilung, heterogene Datenqualität. KI markiert Anomalien in Antrieben, Türen, Klimasystemen.
  • UI-Muster: Karten- und Depotansichten mit Priorisierung nach betrieblicher Auswirkung. Statt rein technischer Scores: „Gefahr der Zugausmusterung in den nächsten 24h – Empfehlung: Tauschteil X im nächsten Depot Y verfügbar“. Drill-down bietet Trendlinien betroffener Sensoren, mit Vergleichsflotte als Referenz.
  • Trade-off: Raum für Unsicherheit ist größer; daher gewinnt das Evidenz-Panel an Bedeutung. Alerts werden eher geplant als hektisch abgearbeitet.