Au sein dune équipe en place vous prenez en charge les missions suivantes:
- Concevoir développer et maintenir des pipelines dingestion batch et streaming
- Implémenter des traitements Data robustes industrialisés et observables
- Participer à la construction dune architecture Lakehouse moderne
- Garantir la qualité la traçabilité et la fiabilité des données
- Contribuer à lindustrialisation (CI/CD DataOps automatisation)
- Collaborer étroitement avec les Data Architects Platform Engineers Product Owners et équipes métier
- Appliquer les bonnes pratiques de sécurité by design et de conformité
- Participer à la documentation et au transfert de connaissances
Qualifications :
- Traitements & Data : Spark (batch / streaming) Python SQL
- Streaming : Kafka
- Accès & Query : Trino (Starburst en étude)
- DevOps / DataOps : Git CI/CD conteneurisation (Docker Kubernetes)
- Observabilité & Qualité : monitoring lineage data quality
- Environnement On-Prem / Cloud privé / Hybride
Informations supplémentaires :
Tous nos postes sont ouverts aux personnes en situation de handicap
Remote Work :
No
Employment Type :
Full-time
Au sein dune équipe en place vous prenez en charge les missions suivantes: Concevoir développer et maintenir des pipelines dingestion batch et streamingImplémenter des traitements Data robustes industrialisés et observablesParticiper à la construction dune architecture Lakehouse moderneGarantir la q...
Au sein dune équipe en place vous prenez en charge les missions suivantes:
- Concevoir développer et maintenir des pipelines dingestion batch et streaming
- Implémenter des traitements Data robustes industrialisés et observables
- Participer à la construction dune architecture Lakehouse moderne
- Garantir la qualité la traçabilité et la fiabilité des données
- Contribuer à lindustrialisation (CI/CD DataOps automatisation)
- Collaborer étroitement avec les Data Architects Platform Engineers Product Owners et équipes métier
- Appliquer les bonnes pratiques de sécurité by design et de conformité
- Participer à la documentation et au transfert de connaissances
Qualifications :
- Traitements & Data : Spark (batch / streaming) Python SQL
- Streaming : Kafka
- Accès & Query : Trino (Starburst en étude)
- DevOps / DataOps : Git CI/CD conteneurisation (Docker Kubernetes)
- Observabilité & Qualité : monitoring lineage data quality
- Environnement On-Prem / Cloud privé / Hybride
Informations supplémentaires :
Tous nos postes sont ouverts aux personnes en situation de handicap
Remote Work :
No
Employment Type :
Full-time
View more
View less