Logistik & Supply Chain · 14 Monate (Discovery bis Full Production)
Herausforderung
Ein europäischer Logistik-Konzern mit 15.000 LKW und 200+ Lagerhäusern hatte keine einheitliche Datenplattform. Sendungsdaten lagen in 8 verschiedenen Legacy-Systemen, ETL-Prozesse liefen über Nacht und lieferten Zahlen mit 24h Verzögerung. Echtzeit-Sendungsverfolgung war nicht möglich, FinOps-Transparenz fehlte komplett.
Unser Vorgehen
1
Data Discovery & Domain Mapping
Inventarisierung aller 8 Quellsysteme, Identifikation von 23 Data Products über 5 Domains (Transport, Warehouse, Fleet, Finance, Customer).
2
Streaming Architecture
Apache Kafka als zentraler Event Bus mit Schema Registry. Echtzeit-Ingestion von GPS-Daten (15.000 LKW), Warehouse-Events und Sendungsstatus-Updates.
3
Transformation & Quality
dbt für Batch-Transformationen, Apache Flink für Stream Processing. Data Quality Gates mit Great Expectations: 47 automatisierte Tests pro Pipeline-Run.
4
FinOps & Cost Optimization
Cost-to-Serve Dashboards pro Data Product. Storage-Tiering mit Apache Iceberg. Gesamtkosten um 35% gesenkt bei 10x mehr Datendurchsatz.
Ergebnisse
Echtzeit-Sendungsverfolgung für 15.000 LKW
24h Datenverzögerung → <30 Sekunden Latenz
35% Kostensenkung bei 10x Datendurchsatz
47 automatisierte Data Quality Tests
5 Data Products als Self-Service für Business Teams
<30s
Latenz
15k
LKW tracked
35%
Kostensenkung
10x
Datendurchsatz
"Früher haben wir Entscheidungen auf Basis von gestern getroffen. Heute sehen wir in Echtzeit, wo jeder LKW steht und wie voll jedes Lager ist."