VERIFIED RESEARCH DATA
Source 1:
- Publisher: McKinsey & Company
- URL: https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai-in-2023
- Published: 2023-08
- Summary: Die jährliche Befragung zeigt: Der finanzielle Nutzen von KI ist stark konzentriert auf wenige Vorreiter. Viele Unternehmen bleiben in Piloten stecken, benennen Datenqualität, Integration in bestehende Prozesse und Risikomanagement als Hauptbarrieren fürs Skalieren.
Source 2:
- Publisher: Bitkom Research / Bitkom e.V.
- URL: https://www.bitkom.org/Themen/Technologien-Software/Kuenstliche-Intelligenz
- Published: 2023
- Summary: DACH-Fokus. Unternehmen nennen unzureichende Datenqualität, fehlende Fachkräfte und rechtliche Unsicherheit (DSGVO, Haftung) als wichtigste Hemmnisse für produktive KI-Nutzung.
Source 3:
- Publisher: European Commission — European approach to AI (AI Act)
- URL: https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence
- Published: 2024
- Summary: Der AI Act führt ein risikobasiertes Regime mit Pflichten für Daten-Governance, technischer Dokumentation, Logging, Transparenz und menschlicher Aufsicht ein; strenger für Hochrisiko-Anwendungen. Stufenweises Inkrafttreten ab 2024/2025.
Source 4:
- Publisher: European Commission — Data Act
- URL: https://digital-strategy.ec.europa.eu/en/policies/data-act
- Published: 2023–2024
- Summary: Regelt Zugriffs- und Nutzungsrechte an Daten, erleichtert Cloud-Switching, stärkt Datenportabilität. Relevant für datengetriebene Produkte und für Souveränität über industrielle Datenräume.
Source 5:
- Publisher: ENISA (European Union Agency for Cybersecurity)
- URL: https://www.enisa.europa.eu/publications/artificial-intelligence-threat-landscape
- Published: 2023
- Summary: Systematische Bedrohungsanalyse für KI-Systeme: Datenvergiftung, Modell-Diebstahl, Supply-Chain- und Prompt-Injection-Angriffe. Betont Bedarf an durchgängiger Observability, Härtung und Governance.
Source 6:
- Publisher: European Data Protection Board (EDPB)
- URL: https://edpb.europa.eu/our-work-tools/our-documents/recommendations/recommendations-012020-measures-supplementary-transfer_en
- Published: 2021 (final guidance post-Schrems II)
- Summary: Bei Datentransfers in Drittländer sind ergänzende technische Maßnahmen nötig. Relevanz für Nutzung außereuropäischer Cloud-/KI-Dienste und Datensouveränität.
Source 7:
- Publisher: NIST (National Institute of Standards and Technology)
- URL: https://www.nist.gov/itl/ai-risk-management-framework
- Published: 2023
- Summary: AI Risk Management Framework 1.0 mit kontrollbasiertem Ansatz für Govern, Map, Measure, Manage. Praktische Leitplanken für Evaluierung, Monitoring und Governance von KI-Systemen.
Source 8:
- Publisher: European Commission — EU-U.S. Data Privacy Framework (Adequacy Decision)
- URL: https://ec.europa.eu/commission/presscorner/detail/en/ip_23_3721
- Published: 2023-07
- Summary: Angemessenheitsbeschluss für zertifizierte US-Unternehmen. Bleibende Compliance- und Anfechtungsrisiken; Aufsichtsbehörden empfehlen einzelfallbezogene Risikoabwägung.
KI kennt dein Business nicht: Warum viele KI-Projekte in Europa am ROI scheitern – und wie Sie das umdrehen
These
KI kennt Ihr Business nicht. Sie kennt nur das, was Sie ihr zuverlässig, wiederholbar und rechtssicher zuführen: Daten, Kontext, Ziele und Constraints. Unternehmen scheitern nicht an “fehlender KI”, sondern an fehlender Problemdefinition, ungeklärter Datenstrategie und mangelnder Produktionsreife.
Die berüchtigte “85%-These” geistert seit Jahren durch Folien. Ob es 60, 70 oder 85 Prozent sind, variiert je nach Studie. Entscheidend ist: Der messbare wirtschaftliche Nutzen ist laut McKinsey 2023 stark bei wenigen Vorreitern konzentriert; der breite Rest bleibt in Piloten stecken. Bitkom berichtet aus DACH: Datenqualität, Integration, Rechtsunsicherheit. Aus unserer Industrie-Praxis lässt sich das präzisieren – technisch, nicht rhetorisch.
Teil 1: Warum so viele KI-Initiativen den ROI verfehlen
1) Problem-First wurde durch Tool-First ersetzt
- Muster: “Wir brauchen Generative KI” statt “Wir wollen First-Time-Fix im Field Service von 71% auf 82% bringen”.
- Konsequenz: Kein belastbares Value-Funnel, keine Baselines, keine saubere Messung. Ohne harte Zielmetrik (z. B. Defect Escape Rate, Mean Time to Resolution, Scrap-Rate) bleibt jeder ROI Zufall.
2) Daten sind unstetig, unklar, unkontrolliert
- Datenqualität: Bitkom nennt sie regelmäßig als Top-Hemmnis. Typische Symptome: fehlende Primärschlüssel, wechselnde Semantik pro Werk/Schicht, “Hidden Nulls” in CSVs, Zeitreihen mit Clock-Skews.
- Datenverträge fehlen: Ohne Data Contracts zwischen Quellsystem (MES/ERP/SCADA) und Feature-Pipeline zerbrechen Modelle in Produktion an geringfügigen Schema-Änderungen.
- Lineage unklar: Niemand kann nachweisen, welche Rohdaten, Feature-Code-Commits und Hyperparameter in Chargen X, Y, Z eines Modells eingeflossen sind. Audit und Root-Cause bleiben Spekulation.
3) Der POC wird als Produkt missverstanden
- Ein Notebook + Demo-API ist kein Produktionssystem. Nicht-funktionale Anforderungen (1. Kontinuität bei Daten-Drift, 2. Latenz/Throughput, 3. Resilienz/Failover, 4. Security/Regulatory Logging) fehlen. Spätestens im Werk oder im Cockpit kippt die Kurve.
4) Versteckte Betriebskosten fressen Nutzen
- Inferenzkosten (Token, GPU-Sekunden), Rechenlastspitzen, Retraining, Data Labeling, Qualitätsmonitoring, Red Teaming, Audits nach AI Act – alles OPEX.
- Ohne TCO-Modell inklusive Model Ops, Observability und Governance sind “positive Business Cases” Schönwetter-Rechnungen.
5) Abhängigkeiten und Souveränität
- Nach Schrems II und trotz EU-U.S. Data Privacy Framework bleibt die Frage: Dürfen/ wollen wir diese Daten diesen Dienstleistern geben? EDPB betont technische Zusatzmaßnahmen. Für viele industrielle Anwendungsfälle ist die Entscheidung klar: Daten und Modelle unter eigener Kontrolle, on-prem oder EU-souveräne Infrastruktur.
Teil 2: Datenstrategie vor KI-Strategie – was das konkret heißt
Eine belastbare Datenstrategie beantwortet vier technische Kernfragen, bevor das erste Modell trainiert wird:
1) Semantik und Datenprodukte
- Domänen schneiden: Statt zentraler “Datenlake für alles” definieren Sie Domänen (z. B. Montage, Qualität, After-Sales) und publizieren Data Products je Domäne mit klarer Semantik.
- Data Contracts: Versionierte Schemas (Avro/Protobuf), Validierungsregeln (nullable?, Einheiten, Wertebereiche), Änderungsprozesse (Backwards/Forwards-Compatibility).
- Qualität-SLOs: Für jedes Data Product definieren Sie SLOs (z. B. P95 Latenz 99,5%, Freshness < 5 min) und messen sie. Tools: Great Expectations, Deequ, dbt tests, plus Metriken in Prometheus/Otel.