- Statusleiste ganz oben: Modus, Verbindungsqualität, Zeitdrift, aktiver Benutzer, Rollenhinweis. Technische Hooks: Heartbeat-Topic, PTP/NTP-Drift-Metrik, RBAC-Context.
- Evidenz-Drawer rechts: Collapsible, persistente Breite, Keyboard-Shortcut. Liefert Frames, Metriken, Quellen. Technisch: Signed Artefact Store lokal, referenziert via Content-Addressable IDs.
- Action-Bar unten: Kontextsensitive Hauptaktionen mit Gating-Indikator. Technisch: Policy-Engine lokal, die Freigabevoraussetzungen evaluiert.
- Alarm-Timeline: Horizontale Liste mit Latching-Indikatoren, Korrelation-Linien. Technisch: Corr-IDs im Event-Bus, Regeln im Stream-Processor.
- Sunlight/Glove Toggle: Systemweiter Moduswechsel mit Token-Austausch im Designsystem (Spacing, Contrast, Hit-Slops). Technisch: CSS/Theme Tokens + OS/HMI-Hooks.
Trade-offs, die man bewusst treffen sollte
- Reicht ein Confidence-Score? Nein, visualisieren Sie Unsicherheit breit: Intervall, Evidenzen, Gegenbelege. Dafür opfern Sie visuelle Simplizität zugunsten von Robustheit.
- Animierte Realtime-Charts vs. Stabilität? Bevorzugen Sie stabile, gepufferte Updates. Weniger „live“, mehr lesbar.
- Eine Oberfläche für alle Rollen? Besser: Gemeinsame Komponenten, aber separate Workflows. Der Leitstand, die Wartung und die Disposition haben unterschiedliche Temporallogiken.
- Cloud-gestützte Analyse jetzt, Edge später? In sicherheitskritischen Kontexten riskant. Bauen Sie Edge/On-Prem zuerst, Cloud als Zusatzwert.
Wie wir das in Projekten umsetzen
Wir bauen keine generischen Dashboards, sondern Systeme, bei denen Bediener, Datenpfad und Governance verknüpft sind. Typische Lieferobjekte:
- Requirements, die Handlungen und Governance zuerst beschreiben: Welche Entscheidungen, welche Schwellen, welche Audit-Pfade.
- UI-Architektur, gebunden an Daten- und Bereitstellungsarchitektur: Topics, Latenzbudgets, Degradationsmodi.
- Prototypen im Latency-/Glove-Test: Funktionsmuster, die in einer realistischen Laborsituation evaluiert werden.
- Alpi-M-gestützte Agenten-Governance, integriert in die Oberfläche: Sichtbarkeit, Gating, Audit.
Fazit
Industrielle UX kann nicht von Technik abstrahieren. Sie muss Datenpfade, Latenzen, Edge/On-Prem-Constraints und Governance sichtbar machen – nicht trotz, sondern wegen der Sicherheit. KI wird produktiv, wenn Souveränität gegeben ist: lokale Observability, klare Freigaben, Evidenzfirst-Design. Dann entsteht eine Oberfläche, die unter Druck funktioniert.
FAQ
Frage: Wie visualisiere ich KI-Unsicherheit, ohne Bediener zu überfordern?
Antwort: Zeigen Sie Unsicherheit mehrdimensional, aber kontextuell: Ein kompakter Konfidenzindikator mit Klick in ein Evidenz-Paneel. Dort liegen Frames, Metriken, Gegenbelege und Modell-/Datenprovenance. Wichtig ist die Kopplung an Handlung: Je kritischer die Aktion, desto prominenter die Unsicherheit und die Freigabemechanik.
Frage: Dark Mode oder Light Mode im Leitstand?
Antwort: Bieten Sie beides, aber entkoppeln Sie dies vom Sunlight-/Glove-Mode. In heller Umgebung ist hoher Kontrast entscheidend, unabhängig von „dark“ oder „light“. Messen Sie reale Blendung und Glare. Dark Mode verbessert nicht automatisch die Lesbarkeit in Sonnenlicht; Glove-Mode muss vor allem Targets vergrößern und Animationen reduzieren.
Frage: Wie gehe ich mit Alarmfluten um?
Antwort: Bauen Sie Korrelation und Deduplikation in die Pipeline, nicht nur in die UI. Gruppieren Sie Alarme nach vermuteter Ursache, latche kritische Alarme, verlangen Sie Acknowledgements mit Begründung und bieten Sie eine Unterdrückung mit Ablaufzeit. Visualisieren Sie den Alarmzustand als Automat (neu, erkannt, in Bearbeitung, überbrückt, gelöst), um Teamarbeit zu strukturieren.
Frage: Wann setze ich ein Dashboard ein, wann eine Timeline?
Antwort: Für Zustandsbilder und Triage ist ein Dashboard mit stabilen Tiles sinnvoll. Für Diagnose und Entscheidungsbegründung benötigen Sie eine Timeline mit scrubbaren Zeitfenstern und synchronisierten Kanälen (Sensoren, Logs, Bilder). Beide Ansichten sind komplementär; wechseln Sie bewusst durch persistente Tabs, nicht durch modale Overlays.
Frage: Wie teste ich UX unter realen Netz- und Hardwarebedingungen?
Antwort: Nutzen Sie Latency-Injection und Paketverlust-Simulation, um Degradationsmodi auszulösen. Testen Sie mit echter Schutzausrüstung und unter wechselnden Lichtbedingungen. Messen Sie, ob das UI Zustände sauber anzeigt (gepuffert, verspätet, offline), riskante Aktionen sperrt und Alternativpfade anbietet. Validieren Sie, dass Audits auch in degradierten Modi vollständig sind.
Hinweis zur Quellenlage
Dieser Beitrag basiert auf Praxis-Patterns aus ausgelieferten Industrieprojekten in sicherheits- und missionskritischen Umgebungen. Wo keine externen Studien zitiert sind, formulieren wir bewusst keine allgemeinen „Trends“, sondern beschreiben erprobte technische und gestalterische Muster.