Frage 1: OPC UA, MQTT oder Kafka – wie entscheide ich?
- Start am Gerät: OPC UA, wenn Sie reiche Semantik, Alarme, Browsing brauchen; sonst direkt MQTT/Sparkplug für leichte Telemetrie.
- Über Standortgrenzen: MQTT/Sparkplug ist robust gegenüber Verbindungsabbrüchen; Kafka ist WAN-unfreundlich.
- Im Werk-/Rechenzentrum: Kafka als Backbone für Replays, hohe Volumina, Verarbeitungspipelines.
- Brücken sind normal: OPC UA → MQTT/Sparkplug → Kafka mit Schema-Registry und klaren Topic-Konventionen.
Frage 2: Wie rolle ich ML-Modelle auf 5.000 Edge-Geräten aus – bei geringer Bandbreite?
- Artefakte signieren und versionieren, differenzielle Updates (Delta-Images) nutzen.
- Prozentuale Rollouts in Ringen mit automatischen Health-Gates; Edge entscheidet lokal über Switch-over nach Shadow-Betrieb.
- Store-and-Forward der Artefakte via regionale Caches/Gateways, kein Direktzugriff jedes Geräts auf die “Zentrale”.
- A/B-Partitionsschema oder Blue/Green-Container mit atomarem Switch. Rollback muss O(1) sein.
Frage 3: Wie halte ich DSGVO bei Video/Audio im Werk ein?
- Datenminimierung: Ereignisbasierte Speicherung, kurze Retention, standardmäßige Maskierung/Anonymisierung am Edge.
- Trennung: Personenbezug logisch/physisch getrennt, strenge ACLs; Schlüsselmaterial verbleibt lokal.
- Zweckbindung: Nur die Features/Ereignisse exportieren, die für Qualität/Produktionssteuerung nötig sind. Audits ermöglichen via vollständiger Versionskette von Modellen/Konfigurationen.
Frage 4: Wie teste ich Latenzbudgets ohne Produktionsstillstand?
- Synthetic Load und “Shadow Runs”: Sensoren spiegeln in eine Test-Pipeline, Entscheidungen bleiben passiv.
- Messpunkte instrumentieren: Timestamps an jeder Stufe (Capture, Pre, Inferenz, Post, Aktor).
- Worst-Case-Tests unter realen CPU/GPU-Lasten; Wärmelast beachten. Akzeptanz erst, wenn 99,9-Perzentil im Budget liegt.
Frage 5: Kubernetes am Edge – overkill oder sinnvoll?
- Für 1–3 Services auf einem Gerät ist Container ohne K8s oft ausreichend (systemd + OCI).
- Für Flotten mit Dutzenden Services, Canary-Rollouts, Service-Mesh und Observability ist leichtgewichtiges K8s (k3s/MicroK8s) sinnvoll – mit restriktiver Konfiguration, lokalem Registry-Cache und deaktivierten unnötigen Controllern.
- Wichtig: Control Plane lokal betreiben; kein hartes Abhängigkeitsverhältnis zu einer Cloud-API.
Schluss
Edge vs. Cloud ist keine Glaubensfrage. Es ist eine saubere, technische Entscheidung entlang von Latenz, Souveränität und Konnektivität. In Defense und kritischer Infrastruktur ist On-Premise die einzige Option, wenn das System auch dann funktionieren muss, wenn das WAN weg ist – und wenn Daten rechtlich und strategisch geschützt bleiben müssen. Cloud bleibt ein wertvolles Werkzeug für Training, globale Kollaboration und Analytik – gezielt und souverän eingesetzt.
Wenn man Souveränität als Architekturprinzip ernst nimmt, wird das System am Ende robuster, auditierbarer und – ironischerweise – innovativer: Sie können mehr automatisieren, weil Sie nicht ständig auf eine entfernte Blackbox warten oder rechtliche “Vielleicht”-Zonen betreten. Souveränität ermöglicht Intelligenz. Genau so bauen wir industrielle AI-Systeme.