/cv
De pijn uit je data halen — op elke schaal.
8+ jaar ervaring met 500TB–1PB datalakes op AWS, Azure, GCP en Alibaba Cloud — lang genoeg om de meeste fouten die jij nog gaat maken al gemaakt én opgelost te hebben.
Wat ik verkoop is zekerheid: het soort dat je verdient met idempotente ETL, platformbrede datakwaliteit, en de telefoontjes om 2 uur ’s nachts.
Projectwerk of langere engagements — beide prima. Wat ik niet aanneem, is werk dat ik niet zelf van begin tot eind kan begeleiden.
Track record
- 2026 — now
Platform Architect (Azure + Alibaba Cloud) —
Enyquant Enige hands-on architect voor een dual-region Lakehouse (Azure EU + Alibaba Cloud China) bij een AI-first startup in energy trading. 100% IaC (CDKTF + Terraform), event-driven serverless pipelines, multi-team IAM. AI-augmented engineering practice opgezet (~3× delivery throughput).
- 2024 — 2025
Lead Data Engineer (AWS Datalake) —
PVH Corp · 2nd engagement
500+TB AWS data lake, 90+ bronnen, 1000+ datasets. Lead op ETL, platformarchitectuur, CI/CD, datakwaliteit. Real-time GDPR (de)anonimisatie-service: latency 2u → real-time, kosten 10× lager.
- 2022 — 2024
Data Engineer & Infra Admin —
VodafoneZiggo 1PB+ datalake. Snowflake-migratie vanaf Oracle DWH, CDC-ingestie (DMS), AWS IaC (CDK + Terraform). Nieuwe CI/CD ingevoerd die het team 60+ uur scheelde.
- 2020 — 2022
Lead Data Engineer (AWS Datalake) —
PVH Corp · 1st engagement
Data lake gemigreerd van Hadoop naar AWS. Externe integraties ontworpen (Adobe, Salesforce, SAP). Self-service analytics gebouwd: TTM van 2 weken naar 10 minuten.
- 2018 — 2020
Data DevOps Engineer —
FedEx Digital
ETL pipelines op AWS & GCP, data-science modellen geproductiseerd, Kinesis-based streaming.
- 2016 — 2018
Data Engineer / Hadoop Admin —
ABN AMRO
Hadoop-beheer, Hive/Spark ETL.
- 2016 — 2018
Data Engineer / Hadoop Admin —
KPN
Hadoop-beheer, Hive/Spark ETL, automatisering met Ansible & Jenkins.
Geselecteerd werk
De cases hieronder zijn openbaar; referenties met namen erbij op aanvraag.
-
2026 — present
Enyquant
— Platform-architect & end-to-end Data Engineer — raw → modeled (Azure + Alibaba Cloud) — FTE Enige hands-on architect voor een dual-region Lakehouse (Azure EU + Alibaba Cloud China) bij een AI-first startup in energy trading. Volledig eigenaarschap van platform, pipelines, IaC, CI/CD, IAM en cross-region architectuur.
- — Medallion-architectuur Lakehouse op ADLS Gen2 + Databricks Unity Catalog met dev/prod-pariteit
- — 100% IaC (CDKTF + Terraform); geen click-ops-drift
- — Event-driven serverless pipelines voor energiemarkt-data over beide regio’s
- — Multi-team IAM, kostenallocatie en veilige cross-region datatoegang
- — Herbruikbare multi-cloud architectuurlaag voor consistente EU ↔ China-deployment
- — Ontworpen met AWS-portabiliteit in gedachten (Lambda / Step Functions / API Gateway / S3 equivalenten)
- — AI-assisted (Harness Engineering) delivery practice opgezet → ~3× individuele throughput
Azure (ADLS Gen2, Databricks, ADF, Functions, Key Vault, Entra ID) · Alibaba Cloud (OSS, Function Compute, DataWorks, EMR Spark) · Terraform + CDKTF (TypeScript) · GitHub Actions + OIDC · Python, SQL
-
2024 — 2025 (returned engagement) & 2020 — 2022
PVH Corp (Tommy Hilfiger, Calvin Klein) — Lead Data Engineer — Freelance
Lead engineer voor een 500+TB AWS data lake met 90+ bronnen en 1000+ datasets. Twee engagements: de Hadoop → AWS migratie en een latere platform-modernisatiefase.
- — Data lake gemigreerd van Hadoop naar AWS
- — Externe integraties ontworpen en opgeleverd: Adobe, Salesforce, SAP, e.a.
- — ETL-laag herbouwd: idempotent en config-driven
- — Langlopende tijdzoneproblemen opgelost in data en scheduling
- — Self-service analytics-platform met 60+ dashboards in gebruik bij CRM & C-suite — TTM van 2 weken naar 10 minuten
- — Real-time GDPR (de)anonimisatie-service: latency 2u → real-time, kosten 10× lager
- — Workloads naar Azure Databricks gemigreerd; GCP BigQuery & Google Analytics bronnen geïntegreerd
- — Senior platform engineer in adviesrol voor DataOps, IaC en production readiness
AWS (S3, Glue, EMR, ECS, Lambda, API Gateway, Athena, Step Functions) · Spark, Kafka, dbt, Airflow · Terraform, AWS CDK · GitLab CI/CD · PyDeequ for data quality · Azure Databricks, GCP BigQuery (cross-cloud sources)
-
2022 — 2024
VodafoneZiggo
— Data Engineer & Infra Admin — Freelance Legacy DWH-workloads van Oracle naar Snowflake gemigreerd op een 1PB+ enterprise datalake. Eigenaar van CDC-ingestie, IaC en het CI/CD-fundament waar het bredere team op bouwt.
- — Snowflake-migratie vanaf legacy Oracle DWH ondersteund
- — CDC-based ingestion pipelines ontworpen en onderhouden (DMS-based)
- — AWS infrastructure as code beheerd (CDK + Terraform)
- — CI/CD-verbeteringen ingevoerd die het bredere team 60+ uur handwerk scheelden
- — ETL pipelines en intern data-engineering framework opgeleverd op een 1PB+ datalake
- — Data scientists en analytics teams ondersteund met betrouwbare datasets
Snowflake · AWS · Terraform, AWS CDK (TypeScript) · Python, SQL, Spark · AWS DMS for CDC · GitLab CI/CD
Tech stack
- Cloud
- AWS (deepest), Azure, Alibaba Cloud, GCP
- Lakehouse
- Databricks, Snowflake, Unity Catalog, Iceberg, DuckDB
- ETL
- Spark, dbt, Glue, Kafka, AWS DMS (CDC)
- Languages
- Python, SQL, TypeScript, Scala, Shell, Solidity, Cython
- Orchestration
- Airflow, ADF, Step Functions, DataWorks, Oozie
- IaC
- Terraform, AWS CDK, CDKTF, Ansible
- CICD
- GitHub Actions, GitLab CI/CD, Jenkins
- Quality
- PyDeequ, Great Expectations
Certificeringen
- — AWS Certified Solutions Architect — Associate
- — Databricks Certified Associate Developer for Apache Spark
- — Databricks Certified Data Engineer Associate
- — Certified Associate in Python Programming
Opleiding
MSc, Communication & Information Systems — Xidian University, China. IDW-evaluatie: gelijkwaardig aan MSc Computing Science (NL).