UX für industrielle Entscheidungssysteme: Gestaltung unter Zeitdruck, Unsicherheit und Souveränitäts-Constraints
Ein Bediener steht nachts an einer Montagelinie. Drei Sensoren melden Abweichungen, die Vision-Inspection schlägt „defekt“ vor, die Instandhaltung ist ausgelastet, und im gleichen Moment fährt ein neuer Batch an. Sekunden entscheiden über Qualität, Sicherheit und Kosten. In solchen Situationen ist UI/UX kein „Nice to have“, sondern Teil der Sicherheitskette. Wir gestalten Oberflächen für Betreiber, die unter Belastung handeln müssen, mit unvollständigen Daten, in Umgebungen mit Handschuhen, Staub, Vibration und gelegentlichem Funkloch. Dieser Text fasst konkrete Muster, Architekturen und Trade-offs zusammen, die sich in industriellen Systemen bewährt haben – insbesondere, wenn KI-Komponenten im Regelkreis laufen und Datenhoheit (On-Prem, DSGVO, keine Abhängigkeit von US‑Clouds) nicht verhandelbar ist.
Problemorientierter Ausgangspunkt
Bevor wir über Komponenten sprechen, definieren wir das Problem präzise:
- Wer entscheidet unter welchem Zeitdruck? Operator, Schichtleiter, Remote-Experte?
- Welche Konsequenz haben Fehlentscheidungen? Produktionsstillstand, Qualitätsausschuss, Sicherheitsrisiko?
- Welche Signale stehen zur Verfügung? Sensoren, Logs, Bilder, KI-Vorschläge – und mit welcher Verlässlichkeit?
- Welche technischen Constraints gelten? Air Gap, Latenz- und Jitter-Budgets, beschränkte Bandbreite, Ausfallsicherheit, Papierpflichten/Export, Audits.
Aus diesen Antworten leiten wir nicht nur UI-Elemente, sondern auch Systemverhalten ab: welche Daten lokal vorgehalten werden, welche Aktionen offline möglich sind, wie Degradation sichtbar wird, wie man Ausfälle fail-safe gestaltet. UI ist hier die menschliche Schnittstelle eines verteilten Systems.
Kontext- und Systemmodell statt „Persona-Light“
Personas aus dem Web‑B2C helfen wenig, wenn Handschuhe, Gehörschutz, Ölfilm und Sonneneinstrahlung den Arbeitsalltag prägen. Für industrielle UIs ist ein präzises Context-of-Use-Modell entscheidend:
- Physische Umgebung: Touch mit Handschuhen, Reflexionen auf Displays, Staub, Vibration, Sitz-/Stehbedienung, Abstand zum Screen.
- Interaktionskanäle: Touch + dedizierte Tasten/Drehgeber, Fußschalter, Barcode-/RFID‑Scanner, ggf. Spracherkennung (nur als Fallback, nie als Single Point of Interaction).
- Netz und Rechenorte: Edge-Inferenz am Gerät, lokaler Server im Werk, zentrale Leitwarte. Klare Zuordnung, was wo läuft und was bei Ausfall passiert.
- Rollen & Rechte: Operator vs. Instandhalter vs. QS. Welche Aktionen sind freigegeben, welche brauchen 4‑Augen-Freigabe?
- Zeitmodell: Wie häufig ändern sich Werte, wann ist ein Wert „veraltet“, wie lange darf ein Screen blockieren?
Dieses Modell beeinflusst alle UI‑Entscheidungen – bis hin zur Größe der Touch-Ziele und dem Platz für redundante Kodierungen von Zuständen (Farbe + Icon + Text + Ton).
Datenfluss bis zum UI: Observability am Rand, nicht nur im Backend
Viele industrielle Dashboards falten Backend-Daten ins Frontend; in der Praxis ist es umgekehrt: UI muss der erste Ort sein, an dem Störungen sicht- und erklärbar sind.
Technische Muster:
- Verbindungszustände sind UI-Zustände. Heartbeats und Datenfrische (z. B. „zuletzt aktualisiert vor 17 s“) gehören prominent ins UI. Keine „stillen“ Nullzustände.
- Backpressure sichtbar machen. Wenn Streams gedrosselt oder gepuffert werden (Edge → Werk → Leitwarte), signalisiert das UI die effektive Aktualisierungsrate und den Pufferstand.
- Monotone Uhren. Zeitanzeigen immer relativ (z. B. „vor 12 s erkannt“) und mit synchronisierten Quellen befüllen. Bei fehlender Sync: UI kennzeichnet „Zeitbasis unsicher“.
- Event-Pipeline erklären. Für jedes Alarm- oder KI-Ereignis: Quelle, Verarbeitungsschritte (z. B. Vorfilter, Fusionslogik), angewendete Schwellen. Das UI zeigt, welche Stufe das Ereignis ausgelöst hat.
- Stale vs. unknown. „Keine Daten“ ist nicht gleich „OK“. UI unterscheidet fehlende Daten (unknown) klar von unkritischen Zuständen.
So unterstützt die Oberfläche nicht nur den Bediener, sondern auch den Incident-Flow: Was kommt wo an? Wo werden Events gedrosselt? Warum „sieht“ KI X, aber Sensor Y nicht?
Alarme, Eskalation und Fluten: Entwurf für den Ernstfall
Alarmfluten sind in Leitständen ein Klassiker. Die UX-Antwort liegt in Struktur, nicht in Farbe.
Kernprinzipien:
- Prioritätsklassen und Eskalationsleiter. Klar definierte Stufen mit Übergangsbedingungen (z. B. von „Hinweis“ zu „Warnung“ nach 2 min Persistenz). UI zeigt überfällige Zustände und ihre Deadline.
- Deduplication & Correlation. Gleiche Ursache → eine Sammelkarte mit Zähler und Ursachentext, nicht 50 identische Popups.
- Hysterese und Quittierregeln. Einmal gequittete Alarme kommen nicht sofort zurück, wenn das Signal knapp um den Schwellwert pendelt. Das UI zeigt die Hysterese-Bandbreite.
- Shelfing mit Begründung. Temporäres Unterdrücken mit Pflichtangabe einer Begründung und automatischem Review-Timer. Auditbar im UI.
- Acknowledge ist eine bewusste Aktion. Kein Wisch‑to‑dismiss. Bestätigung braucht motorische Intentionalität (z. B. Taste halten 1,5 s), besonders auf Touch unter Vibration.
Im UI werden Alarme als Arbeitsvorrat geführt, nicht als flüchtige Benachrichtigungen. Jeder Eintrag hat Status (neu, in Bearbeitung, geparkt, gelöst), Verantwortlichen, Zeitbudget, und eine klare nächste Aktion.
KI im Regelkreis: Entscheidungshilfen sicher einhegen
KI verändert nicht die Verantwortung: Menschen tragen die Konsequenzen. Darum gestalten wir „AI-in-the-Loop“-UIs restriktiv, prüfbar und erklärbar – mit Governance als UI‑Funktion, nicht nur als Prozessdokument.
Konkrete UI‑Bausteine:
- Vorschlag statt Autopilot. KI erzeugt Vorschläge mit Konfidenzband und Alternativen. Der Mensch bestätigt, ändert oder verwirft. UI macht die Grenzen explizit („KI ist nicht autorisiert, diese Aktion selbst auszuführen“).
- Begründungen auf Bedienniveau. Keine Roh-Prompts oder Token-Dumps im UI. Stattdessen: kurze, domänenspezifische Begründung (z. B. „Abweichung an Position B02: 4 von 6 Merkmalen außerhalb Toleranz; ähnlich zu 13 archivierten Fällen mit Maßnahmenprofil M‑42“). Der Weg dahin wird im System geloggt und ist auditierbar.
- Unknown ist erlaubt. Die UI bietet eine Option „Unsicher / eskalieren“, wenn die Konfidenz niedrig ist oder Daten widersprüchlich sind. Besser ein sauberes „weiß ich nicht“ als Halluzinationen in Politur.
- Safeguards sichtbar. Welche Regeln begrenzen KI (z. B. keine Änderung an Sicherheitsgrenzen, kein Zugriff auf Steuerbefehle)? UI listet aktive Leitplanken und die letzte Policy‑Prüfung.
- Shadow Mode und A/B‑Freigabe. Vor Rollout: KI läuft unsichtbar mit, UI zeigt für Experten die hypothetischen Vorschläge neben den realen Entscheidungen. Freigaben erfolgen stufenweise nach Rolle, nicht durch „Big Bang“.