- Start: Linienübersicht mit Aggregaten. Eine Linie zeigt „1 Alarm, 2 Warnungen“. Qualitätsindikator der Linie gelb (leichte Datenlatenz).
- Drill-down: Maschine M-17. Ereignisliste rechts: „Vibrationstrend anomal“, „Temperaturspreizung erhöht“. Quality Stripe zeigt: Datenvollständigkeit 100%, Vibration-Sensorvertrauen hoch, Temperaturfühler 2/6 degradet.
- Empfehlung: „Drehzahl um 20% senken“ mit Begründung und Vergleichsbeispielen aus der Historie (ähnliche Muster in den letzten 90 Tagen). OOD-Indikator „nein“.
- Aktion: Operatorin klickt „Vorschlag prüfen“, Vorschau zeigt Effekte auf Durchsatz, Risiken, und ob Sicherheitsregeln tangiert sind. Zweiter Klick „Bestätigen“ mit Pflichtkommentar. Audit wird protokolliert.
- Nachverfolgung: Panel zeigt Countdown bis zum Wirkeintritt, Überwachung der Folgemetriken, und einen „Rückgängig“-Pfad, sofern risikolos möglich.
Warum das alles? Weil UX hier die Schnittstelle zwischen Modell, Maschine und Mensch ist. Schlechte UX kostet Entscheidungen, gute UX reduziert Risiko – messbar.
FAQ
1) Wie visualisiere ich KI-Unsicherheit, ohne Bediener zu verwirren?
- Nutzen Sie kategoriale Vertrauensstufen mit Quality Stripes statt reiner Prozentzahlen. Kombinieren Sie Unsicherheitsanzeige mit konkreten, risikobewerteten Handlungsvorschlägen. Zeigen Sie, welche Daten und Regeln zur Empfehlung geführt haben, und ob OOD vorliegt.
2) Wie gehe ich mit Alarmfluten um?
- Vor dem UI deduplizieren und korrelieren. Im UI Gruppen bilden, Severity priorisieren, temporär drosseln. Ein definierter Flutmodus mit Aggregationskacheln verhindert, dass die Interaktion kollabiert. Quittierung bleibt ein expliziter, begründeter Akt.
3) Dunkelmodus im Leitstand – ja oder nein?
- Das hängt von der realen Umgebungshelligkeit ab. Testen Sie vor Ort. Wichtig ist hoher Kontrast und Blendfreiheit. In hellen Umgebungen sind helle Themes oft lesbarer; in dunklen Umgebungen kann ein dunkles Theme sinnvoll sein – Hauptsache konsistent und blendarm.
4) Wie erreiche ich gute Bedienbarkeit mit Handschuhen?
- Große Touch-Ziele mit großzügigen Abständen, Rastpunkte für Regler, klare Trennung von Lesen und Schalten. Kritische Aktionen getrennt platzieren und mit zweistufiger Bestätigung. Wo möglich Shortcuts und Hardwaretasten vorsehen.
5) Können LLMs in sicherheitskritischen HMIs eingesetzt werden?
- Nur als Assistenz für Diagnose und Dokumentation, nicht als autonomer Akteur. Alle Prompts, Kontexte und Vorschläge müssen on-prem nachvollziehbar gespeichert und versioniert sein. Vorschläge sind optional, klare Regeln und Sicherheitslogik haben Vorrang. Kritische Steuerungen bleiben regel- und rollenbasiert.
Schluss
UX für industrielle, KI-gestützte Systeme heißt, Entscheidungen unter Unsicherheit beherrschbar zu machen – mit klaren Zuständen, nachvollziehbarer Provenienz, robustem Verhalten bei Störungen und Interfaces, die in der Realität funktionieren: mit Handschuhen, im Licht, im Staub, bei Lärm. Wenn Datenhoheit und On-Premise-Constraints von Beginn an in die UI-Architektur einfließen, entsteht ein System, das nicht nur „smart“ wirkt, sondern im Ernstfall verlässlich trägt. Souveränität ermöglicht Intelligenz – und gute UX macht sie bedienbar.