Le/la consultant(e) interviendra au sein des équipes Data et sera en charge de concevoir développer et maintenir des solutions de traitement de données à grande échelle au sein de la Plateforme Data dans une architecture Data Centric.
Lobjectif est dindustrialiser la collecte la transformation et lexposition des données via API afin daccélérer les traitements analytiques et la convergence entre lopérationnel et le décisionnel.
Le consultant intégrera léquipe Plateforme Data pour :
- Concevoir et implémenter des pipelines de données performants sur GCP (BigQuery BigTable Dataproc).
- Développer des traitements distribués sous Spark et Kafka.
- Participer à la mise en œuvre de pratiques CI/CD (GitLab Docker) et à lautomatisation des workflows data.
- Garantir la qualité du code via tests unitaires et dintégration.
- Collaborer avec les équipes développement et production en environnement agile (Scrum).
Qualifications :
De formation bac5 en informatique
Expérience : > 7 ans maîtrisant les environnements Cloud (GCP ou AWS) et les technologies de traitement distribué (Kafka Spark BigQuery).
Compétences requises :
- Développement : Scala et/ou Java (expertise)
- Data : Apache Spark Apache Kafka BigQuery BigTable
- Cloud : GCP (Cloud Storage Dataproc Kubernetes) ou AWS équivalent
- CI/CD : GitLab CI/CD Docker Compose
- SQL avancé Linux scripting
- Méthodologie Agile / Scrum
- Bonne communication écrite et orale (FR/EN)
Remote Work :
Yes
Employment Type :
Full-time
Le/la consultant(e) interviendra au sein des équipes Data et sera en charge de concevoir développer et maintenir des solutions de traitement de données à grande échelle au sein de la Plateforme Data dans une architecture Data Centric.Lobjectif est dindustrialiser la collecte la transformation et lex...
Le/la consultant(e) interviendra au sein des équipes Data et sera en charge de concevoir développer et maintenir des solutions de traitement de données à grande échelle au sein de la Plateforme Data dans une architecture Data Centric.
Lobjectif est dindustrialiser la collecte la transformation et lexposition des données via API afin daccélérer les traitements analytiques et la convergence entre lopérationnel et le décisionnel.
Le consultant intégrera léquipe Plateforme Data pour :
- Concevoir et implémenter des pipelines de données performants sur GCP (BigQuery BigTable Dataproc).
- Développer des traitements distribués sous Spark et Kafka.
- Participer à la mise en œuvre de pratiques CI/CD (GitLab Docker) et à lautomatisation des workflows data.
- Garantir la qualité du code via tests unitaires et dintégration.
- Collaborer avec les équipes développement et production en environnement agile (Scrum).
Qualifications :
De formation bac5 en informatique
Expérience : > 7 ans maîtrisant les environnements Cloud (GCP ou AWS) et les technologies de traitement distribué (Kafka Spark BigQuery).
Compétences requises :
- Développement : Scala et/ou Java (expertise)
- Data : Apache Spark Apache Kafka BigQuery BigTable
- Cloud : GCP (Cloud Storage Dataproc Kubernetes) ou AWS équivalent
- CI/CD : GitLab CI/CD Docker Compose
- SQL avancé Linux scripting
- Méthodologie Agile / Scrum
- Bonne communication écrite et orale (FR/EN)
Remote Work :
Yes
Employment Type :
Full-time
View more
View less