Pour soutenir notre croissance et nos projets à forte valeur ajoutée nous recherchons un Data Engineer Confirmé avec une expertise Databricks.
Au sein de notre practice Data & AI tes missions sont les suivantes :
Conception développement et maintien des pipelines de données scalables sur Databricks.
Mise en place et optimisation des architectures de données (Data Lakehouse Delta Lake).
Développement des traitements de données distribués (PySpark SQL Delta Live Tables).
Collaboration avec les équipes Data Science et BI pour fournir des datasets fiables et industrialisés.
Participation à lindustrialisation : CI/CD monitoring automatisation et optimisation des coûts.
Contribution à la diffusion des bonnes pratiques et à lamélioration continue de la plateforme.
Tu joues un rôle crucial dans le succès de nos clients et dans le développement de notre culture en France. Tu contribues à renforcer notre réputation en tant quexperts.
Ensemble nous relèverons les plus grands défis de nos clients anticiperons les tendances futures et créerons des solutions innovantes à léchelle globale !
Compétences techniques :
PySpark SQL et Python
Les concepts de Data Lakehouse Delta Lake et loptimisation des jobs Spark
Lintégration et lorchestration de flux (Airflow dbt ou équivalent)
Expérience dans un environnement cloud (Azure AWS ou GCP)
Des connaissances en CI/CD (Git Terraform DevOps) sont un plus
Architecture data moderne : modèle en couches (bronze silver gold)
Required Experience:
IC
Pour soutenir notre croissance et nos projets à forte valeur ajoutée nous recherchons un Data Engineer Confirmé avec une expertise Databricks.Au sein de notre practice Data & AI tes missions sont les suivantes :Conception développement et maintien des pipelines de données scalables sur Databricks.Mi...
Pour soutenir notre croissance et nos projets à forte valeur ajoutée nous recherchons un Data Engineer Confirmé avec une expertise Databricks.
Au sein de notre practice Data & AI tes missions sont les suivantes :
Conception développement et maintien des pipelines de données scalables sur Databricks.
Mise en place et optimisation des architectures de données (Data Lakehouse Delta Lake).
Développement des traitements de données distribués (PySpark SQL Delta Live Tables).
Collaboration avec les équipes Data Science et BI pour fournir des datasets fiables et industrialisés.
Participation à lindustrialisation : CI/CD monitoring automatisation et optimisation des coûts.
Contribution à la diffusion des bonnes pratiques et à lamélioration continue de la plateforme.
Tu joues un rôle crucial dans le succès de nos clients et dans le développement de notre culture en France. Tu contribues à renforcer notre réputation en tant quexperts.
Ensemble nous relèverons les plus grands défis de nos clients anticiperons les tendances futures et créerons des solutions innovantes à léchelle globale !
Compétences techniques :
PySpark SQL et Python
Les concepts de Data Lakehouse Delta Lake et loptimisation des jobs Spark
Lintégration et lorchestration de flux (Airflow dbt ou équivalent)
Expérience dans un environnement cloud (Azure AWS ou GCP)
Des connaissances en CI/CD (Git Terraform DevOps) sont un plus
Architecture data moderne : modèle en couches (bronze silver gold)
Required Experience:
IC
View more
View less