Contexte : Nous recherchons pour lun de nos clients grands comptes un Data Engineer GCP (H/F) qui travaillera en relation avec une équipe à linternationale.
Responsabilités :
Conception et développement des pipelines data
- Concevoir et développer des pipelines de traitement de données robustes et scalables.
- Mettre en place des flux dingestion transformation et stockage des données.
- Développer et optimiser les modèles de transformation avec dbt.
- Participer à lindustrialisation des processus de traitement des données.
Architecture et plateforme data
- Concevoir et maintenir des architectures data modernes sur le Cloud.
- Mettre en place et optimiser les entrepôts de données Snowflake.
- Participer à la modélisation des données (data warehouse / data lake / data lakehouse).
- Garantir la performance la qualité et la disponibilité des données.
Intégration et orchestration
- Développer et maintenir les pipelines dintégration de données.
- Mettre en place des outils dorchestration et de planification des workflows.
- Participer à lintégration de différentes sources de données internes et externes.
Qualité gouvernance et optimisation
- Mettre en place des processus de qualité et de validation des données.
- Optimiser les performances des requêtes et pipelines data.
- Contribuer à la gouvernance des données et aux bonnes pratiques data engineering.
Collaboration et amélioration continue
- Collaborer avec les équipes data science BI et métiers.
- Participer aux revues techniques et à la documentation des pipelines.
- Contribuer à lamélioration continue de la plateforme data.
Environnement technique associé :
- Google Cloud Platform (GCP)
- Snowflake
- DBT
- SQL / Python
- Data Warehouse / Data Lake
- Outils dorchestration (Airflow Cloud Composer ou équivalent)
- CI/CD et bonnes pratiques DevOps appliquées à la data
Profil :
- Solides compétences en SQL et modélisation de données
- Expérience sur des architectures data cloud
- Capacité à travailler en environnement agile et collaboratif
Qualifications :
Qualifications requises :
- Contrat : CDI uniquement
- Diplôme de niveau bac 5 en informatique réseau ou domaine connexe
- Maitrise approfondie de langlais oral & écrit (professionnel / courant)
- Expérience professionnelle attendue sur un rôle similaire : 5 ans minimum
- Certifications appréciées
Informations supplémentaires :
Vous vous reconnaissez dans ce descriptif Alors nattendez plus ! Nous serons ravis de vous accueillir dans nos équipes. Postulez dès maintenant en envoyant votre CV.
Remote Work :
No
Employment Type :
Full-time
Contexte : Nous recherchons pour lun de nos clients grands comptes un Data Engineer GCP (H/F) qui travaillera en relation avec une équipe à linternationale. Responsabilités :Conception et développement des pipelines dataConcevoir et développer des pipelines de traitement de données robustes et scala...
Contexte : Nous recherchons pour lun de nos clients grands comptes un Data Engineer GCP (H/F) qui travaillera en relation avec une équipe à linternationale.
Responsabilités :
Conception et développement des pipelines data
- Concevoir et développer des pipelines de traitement de données robustes et scalables.
- Mettre en place des flux dingestion transformation et stockage des données.
- Développer et optimiser les modèles de transformation avec dbt.
- Participer à lindustrialisation des processus de traitement des données.
Architecture et plateforme data
- Concevoir et maintenir des architectures data modernes sur le Cloud.
- Mettre en place et optimiser les entrepôts de données Snowflake.
- Participer à la modélisation des données (data warehouse / data lake / data lakehouse).
- Garantir la performance la qualité et la disponibilité des données.
Intégration et orchestration
- Développer et maintenir les pipelines dintégration de données.
- Mettre en place des outils dorchestration et de planification des workflows.
- Participer à lintégration de différentes sources de données internes et externes.
Qualité gouvernance et optimisation
- Mettre en place des processus de qualité et de validation des données.
- Optimiser les performances des requêtes et pipelines data.
- Contribuer à la gouvernance des données et aux bonnes pratiques data engineering.
Collaboration et amélioration continue
- Collaborer avec les équipes data science BI et métiers.
- Participer aux revues techniques et à la documentation des pipelines.
- Contribuer à lamélioration continue de la plateforme data.
Environnement technique associé :
- Google Cloud Platform (GCP)
- Snowflake
- DBT
- SQL / Python
- Data Warehouse / Data Lake
- Outils dorchestration (Airflow Cloud Composer ou équivalent)
- CI/CD et bonnes pratiques DevOps appliquées à la data
Profil :
- Solides compétences en SQL et modélisation de données
- Expérience sur des architectures data cloud
- Capacité à travailler en environnement agile et collaboratif
Qualifications :
Qualifications requises :
- Contrat : CDI uniquement
- Diplôme de niveau bac 5 en informatique réseau ou domaine connexe
- Maitrise approfondie de langlais oral & écrit (professionnel / courant)
- Expérience professionnelle attendue sur un rôle similaire : 5 ans minimum
- Certifications appréciées
Informations supplémentaires :
Vous vous reconnaissez dans ce descriptif Alors nattendez plus ! Nous serons ravis de vous accueillir dans nos équipes. Postulez dès maintenant en envoyant votre CV.
Remote Work :
No
Employment Type :
Full-time
View more
View less