3) Gegenfragen ermöglichen
- „Warum nicht X?“ zeigt, welche Policy oder welche Evidenz gegen X spricht.
- „Was brauchst du, um sicherer zu sein?“ benennt fehlende Signale oder Kalibrierungen.
4) Human-in-the-Loop als Standard
- Für Aktuatorik gilt: KI darf vorbereiten, der Mensch löst aus. Automatisierte Sequenzen sind nur innerhalb vorab definierter, eng begrenzter Policies aktivierbar.
5) Traceability by Design
- Jede Interaktion speichert: Datenausschnitt, Modellversion, Prompt/Parameter (bei LLMs), Policy-Entscheidung, Benutzer und Ausgang. Reproduzierbarkeit ist ein UI-Feature, kein Backend-Detail.
- UI zeigt für jeden Beschluss eine „Entscheidungskarte“: Wer, was, wann, warum, womit.
6) Degradation statt Totalausfall
- Bei Modelldrift oder fehlenden Ressourcen fällt die UI auf heuristische Regeln zurück und markiert dies deutlich („Heuristik aktiv, keine KI-Überprüfung“).
- Features, die nicht zuverlässig sind, verschwinden nicht – sie werden als temporär unbestimmt markiert.
Konkretes Beispiel 1: Visuelle Inspektion an der Linie
- UI zeigt Live-Feed, Overlays der gefundenen Defekte mit Segmenten und Labels. Neben jedem Overlay: Regelhinweise, z. B. „Kratzerlänge > 3 mm“.
- Bediener kann „Gut/Schlecht“ überstimmen. Bei Overrule fragt die UI nach Grundkategorien (Beleuchtung/Reflexion/Modellfehler/Edge-Case) und speichert Bild + Metadaten in einen Quarantäne-Datensatz.
- Kein Online-Lernen im Produktionssystem. Das UI zeigt, wie viele Overrules in den letzten 24 h aufgetreten sind und ob ein Modell-Update ansteht. Aktualisierungen passieren in Wartungsfenstern, versioniert und reversibel.
Konkretes Beispiel 2: LLM-Agent für Schichtübergaben
- Agent extrahiert aus Logs, Alarmen und Tickets die wichtigsten Ereignisse und schlägt einen Übergabetext vor. Die UI zeigt jeden Satz mit „Provenienz-Chips“ (z. B. Log-Zeitraum, Alarmliste).
- Der Schichtleiter editiert, streicht, ergänzt. Nichts wird automatisch veröffentlicht. Das Ergebnis ist versioniert, inkl. der Roh-Extraktionen und des finalen Textes.
- Keine externe Cloud-Nutzung: LLM läuft on-prem, Prompts/Templates sind versioniert und auditiert. PII wird vor Inferenz maskiert, die Maskierungsregeln sind in der UI einsehbar.
Architektur und Deployment, die UX tragen
Frontend
- Web-App mit TypeScript und einem UI-System, das ohne externe CDNs auskommt (lokale Assets, signierte Bundles).
- Design Tokens für Farben/Abstände/Kontraste, um Gerätekonfigurationen (Leitwarte vs. Feldtablet) umschaltbar zu machen.
- Caching gezielt: Service Worker nur, wenn Updates deterministisch gesteuert werden (z. B. „Stage-then-Switch“ während Wartungsfenstern). Ansonsten explizite Cache-Buster und Versionsbanner.
- Rendering-Pipeline mit Prioritäten: Alarme und Stale-Indikatoren haben Vorrang vor Trend-Neuzeichnung. Vermeiden Sie, dass das UI-thread-blockierende Charts kritische Indikatoren verzögern.
State und Daten
- Ereignisgetriebene Architektur: UI konsumiert einen priorisierten Alarmkanal und getrennte Datenkanäle für Telemetrie und Metadaten.
- Zeit ist normalisiert und synchronisiert (NTP/PTP-Strategie), Uhrenabweichungen werden gemessen und angezeigt.
- Timeseries lokal, mit Read-optimierten Views für die häufigsten Dashboards. Kein Live-JOIN über 20 Quellen im Erst-View.
Backend und OT-Bridge
- OT/IT-Entkopplung: Edge-Gateways konsolidieren Protokolle, säubern Daten und setzen Qualitätsflags (valid, interpoliert, stale).
- Backpressure-fähige Streams: Wenn die UI nicht nachkommt, priorisieren Sie jüngere Daten und zeigen einen „Gap“-Marker; niemals stillschweigend droppen ohne Hinweis.
Sicherheit und Rechte
- RBAC integriert in lokale Verzeichnisdienste. UI zeigt die aktuelle Rolle und erklärt, warum Aktionen gesperrt sind.
- Just-in-Time-Eskalation: Temporäre Freigabe durch Vorgesetzte mit digitaler Signatur. UI führt durch den Prozess, speichert den Audit.
Observability der UX
- Messen Sie nicht nur Backend-Latenzen, sondern die „Glance-Time“ bis zur ersten sinnvollen Anzeige und die „Action-Time“ bis zur bestätigten Steuerung.
- UI-Telemetrie on-prem, anonymisiert und ohne externen Abfluss. Fehler werden mit UI-Zustand und Datenfrische korreliert.
Release-Strategie
- Blue-Green- oder Canary-Updates innerhalb des Werknetzes, aber ohne experimentelle A/B für sicherheitskritische Flows.
- Rollbacks sind ein UI-Schalter mit klarer Versionsanzeige. Nutzer sehen, welche Version aktiv ist und was sich ändert.
Edge-Inferenz
- Planen Sie Latenzbudgets: z. B. 100–200 ms für Overlay-Rendering, 500–800 ms für CV-Inferenz auf Edge-GPU, mit sichtbarer „Letzte Inferenz: 420 ms“.
- Wenn das Budget reißt, priorisiert die UI die letzte stabile Anzeige mit Frischeindikator statt eines Spinners.
Accessibility in rauen Umgebungen
- Touch-Zielgrößen: mindestens 12 mm Kantenlänge, mit Handschuhen eher 18–20 mm. Zwischenräume großzügig, keine dicht gepackten Mikro-Buttons.
- Gesten: Keine versteckten Zwei-/Drei-Finger-Gesten. Primary-Aktionen sind große, klar beschriftete Tasten; kritische Aktionen mit „Hold-to-Confirm“.
- Kontrast und Sonnenlicht: Hohe Kontraste, reduzierte feine Linien. Testen Sie auf den realen Displays. Spiegelnde Flächen vermeiden; Indikatoren nicht nur farblich unterscheiden, sondern auch per Form/Muster.
- Farbwahl: Keine reine Rot/Grün-Unterscheidung. Doppeltes Encoding (Farbe + Icon + Text). Blinkende Elemente nur sehr sparsam und nie bei Dauerzuständen.
- Sprache und Einheiten: Einheitliche Fachterminologie, Mehrsprachigkeit bei Bedarf. 24-Stunden-Zeit, konsistente Dezimaltrennzeichen, keine Lokalisierungsüberraschungen.
- Kognitive Last: Icons immer mit Labels. Tooltips sind kein Primärträger von Information. Keine Hover-Only-Interaktionen.
- Audio/Haptik: In lauten Umgebungen nicht auf Ton verlassen. Wenn Geräte haptisches Feedback haben, nur als sekundäre Verstärkung nutzen.
Testen wie in der Realität – nicht im Konfi-Raum
- Latenz- und Paketverlust-Tests: Simulieren Sie 1–5 % Paketverlust, Jitter, und prüfen Sie, ob kritische Indikatoren stabil bleiben.
- Dark-Start: Wie schnell bekommt der Operator nach Kaltstart eine verlässliche Erstansicht? Keine Login-Wand; unterstützen Sie Badge/SSO im Kiosk, wenn sicher machbar.
- Szenarien statt Klickwege: „Lagerdruck steigt schnell + Kamera fällt aus + vorgeschlagene Drosselung kollidiert mit Wartungsmode“. Testen Sie Ad-hoc-Entscheidungen.
- Handschuhtests: Prototypen mit echten Handschuhen, echten Displays, echter Beleuchtung. Beobachten, welche Ziele verfehlt werden.
- Safety-Reviews: Führen Sie Interaktions-FMEAs durch. Welche Fehlbedienung ist möglich? Was ist die Detektions- und Abmilderungsstrategie im UI?
- Datenschutz-Drills: Prüfen Sie, dass Screenshots keine PII offenlegen oder dass mindestens Wasserzeichen und Export-Policies greifen.
Anti-Pattern und Korrekturen