Vous aurez comme objectif de concevoir développer et maintenir des solutions Big Data performantes pour la Digital Factory Supply Chain. Optimiser les pipelines de données analyser les performances et assurer lamélioration continue des solutions existantes afin de soutenir la chaîne dapprovisionnement (commandes magasins fournisseurs entrepôts transport).
Vous serez amené à :
- Concevoir développer et maintenir des solutions de traitement de données massives.
- Mettre en place et optimiser des pipelines de données complexes.
- Analyser les performances et améliorer les solutions existantes.
- Travailler en environnement Big Data avec GCP Hadoop Spark Kafka.
- Contribuer à lautomatisation via CI/CD et orchestrateurs (Kubernetes Docker Ansible).
- Collaborer avec les équipes DF Supply Chain en mode Agile/Scrum.
Qualifications :
Diplômé(e) dun Bac5 en école dingénieur ou équivalent universitaire avec une spécialisation en informatique ou justifiant dune expérience significative équivalente
Expérience : 7 ans en Data Engineering idéalement dans le secteur du retail / grande distribution
Compétences requises :
- GCP (BigQuery BigTable)
- Scala ou Java
- Hadoop Spark Kafka Avro
- NoSQL (Cassandra BigTable)
- Elasticsearch
- CI/CD : GitLab Jenkins Docker Kubernetes Ansible
- Méthodologie Agile (Scrum)
- Communication claire et travail en équipe
Informations supplémentaires :
Looking forward to hearing from you !
Remote Work :
Yes
Employment Type :
Full-time
Vous aurez comme objectif de concevoir développer et maintenir des solutions Big Data performantes pour la Digital Factory Supply Chain. Optimiser les pipelines de données analyser les performances et assurer lamélioration continue des solutions existantes afin de soutenir la chaîne dapprovisionneme...
Vous aurez comme objectif de concevoir développer et maintenir des solutions Big Data performantes pour la Digital Factory Supply Chain. Optimiser les pipelines de données analyser les performances et assurer lamélioration continue des solutions existantes afin de soutenir la chaîne dapprovisionnement (commandes magasins fournisseurs entrepôts transport).
Vous serez amené à :
- Concevoir développer et maintenir des solutions de traitement de données massives.
- Mettre en place et optimiser des pipelines de données complexes.
- Analyser les performances et améliorer les solutions existantes.
- Travailler en environnement Big Data avec GCP Hadoop Spark Kafka.
- Contribuer à lautomatisation via CI/CD et orchestrateurs (Kubernetes Docker Ansible).
- Collaborer avec les équipes DF Supply Chain en mode Agile/Scrum.
Qualifications :
Diplômé(e) dun Bac5 en école dingénieur ou équivalent universitaire avec une spécialisation en informatique ou justifiant dune expérience significative équivalente
Expérience : 7 ans en Data Engineering idéalement dans le secteur du retail / grande distribution
Compétences requises :
- GCP (BigQuery BigTable)
- Scala ou Java
- Hadoop Spark Kafka Avro
- NoSQL (Cassandra BigTable)
- Elasticsearch
- CI/CD : GitLab Jenkins Docker Kubernetes Ansible
- Méthodologie Agile (Scrum)
- Communication claire et travail en équipe
Informations supplémentaires :
Looking forward to hearing from you !
Remote Work :
Yes
Employment Type :
Full-time
View more
View less