Tu rejoindras léquipe Data de RCA composée de 18 personnes (Data Engineers PM Analystes ML développeurs etc.) au cœur de nos enjeux produit cloud et performance.
Ton rôle : concevoir faire évoluer et maintenir nos pipelines data pour servir à la fois nos utilisateurs internes (outils daide à la décision) et nos clients externes (API exposées à destination des experts-comptables).
Tes missions :
- Concevoir des pipelines batch & streaming robustes scalables et maintenables
- Participer à la migration vers un traitement en temps réel (Kafka)
- Dockeriser les environnements Python et les intégrer aux pipelines CI/CD
- Concevoir et mettre en œuvre des architectures data
- Déployer des composants AWS avec Terraform en lien avec léquipe plateforme (IAM S3 EKS ECS etc.)
- Participer à la mise en place dune observabilité Data (logs qualité monitoring)
- Accompagner les Data Analysts & PM dans lindustrialisation des solutions
- Travailler dans une logique data as a product : forte proximité avec les usages
Stack & Environnement :
- Cloud : AWS (IAM S3 RDS EKS ECS DMS)
- Data Engineering : Airflow DBT Kafka Terraform
- Développement : Python (Poetry Pytest Black) SQL
- Stockage : Snowflake PostgreSQL
- CI/CD : GitLab CI
- BI : Holistics ThoughtSpot
- ML Ops : début dimplémentation présence dun Data Scientist Ingénieur ML
Enjeux & projets :
- Migration progressive vers du streaming (Kafka)
- Mise en place de solutions dobservabilité et de gouvernance data
- Automatisation et montée en puissance sur les sujets MLOps / IA générative
- Vision produit forte : la donnée est un levier métier et business clé
Qualifications :
Profil :
- 3 à 5 ans dexpérience en Data Engineering (ou plus si affinités !)
- Très bonne maîtrise de Python AWS ETL/ELT
- Connaissance de Snowflake Airflow Terraform Kafka appréciée
- Intérêt pour les enjeux Ops : CI/CD monitoring performance
- À laise en environnement collaboratif agile avec une forte autonomie
Poste en CDI possible en Home Office uniquement en France et de préférence proche Nantes (PLO BRE IDF région Centre..). Retour sur site obligatoire toutes les 6 semaines.
Envie de rejoindre une aventure collective qui façonne la facture électronique de demain
Rejoignez le Village Connecté !
Informations supplémentaires :
Process de recrutement : 1er échange (visio ou présentiel) et 2e RDV physique (test technique (30 min) debrief échange avec léquipe)
Remote Work :
Yes
Employment Type :
Full-time
Tu rejoindras léquipe Data de RCA composée de 18 personnes (Data Engineers PM Analystes ML développeurs etc.) au cœur de nos enjeux produit cloud et performance.Ton rôle : concevoir faire évoluer et maintenir nos pipelines data pour servir à la fois nos utilisateurs internes (outils daide à la décis...
Tu rejoindras léquipe Data de RCA composée de 18 personnes (Data Engineers PM Analystes ML développeurs etc.) au cœur de nos enjeux produit cloud et performance.
Ton rôle : concevoir faire évoluer et maintenir nos pipelines data pour servir à la fois nos utilisateurs internes (outils daide à la décision) et nos clients externes (API exposées à destination des experts-comptables).
Tes missions :
- Concevoir des pipelines batch & streaming robustes scalables et maintenables
- Participer à la migration vers un traitement en temps réel (Kafka)
- Dockeriser les environnements Python et les intégrer aux pipelines CI/CD
- Concevoir et mettre en œuvre des architectures data
- Déployer des composants AWS avec Terraform en lien avec léquipe plateforme (IAM S3 EKS ECS etc.)
- Participer à la mise en place dune observabilité Data (logs qualité monitoring)
- Accompagner les Data Analysts & PM dans lindustrialisation des solutions
- Travailler dans une logique data as a product : forte proximité avec les usages
Stack & Environnement :
- Cloud : AWS (IAM S3 RDS EKS ECS DMS)
- Data Engineering : Airflow DBT Kafka Terraform
- Développement : Python (Poetry Pytest Black) SQL
- Stockage : Snowflake PostgreSQL
- CI/CD : GitLab CI
- BI : Holistics ThoughtSpot
- ML Ops : début dimplémentation présence dun Data Scientist Ingénieur ML
Enjeux & projets :
- Migration progressive vers du streaming (Kafka)
- Mise en place de solutions dobservabilité et de gouvernance data
- Automatisation et montée en puissance sur les sujets MLOps / IA générative
- Vision produit forte : la donnée est un levier métier et business clé
Qualifications :
Profil :
- 3 à 5 ans dexpérience en Data Engineering (ou plus si affinités !)
- Très bonne maîtrise de Python AWS ETL/ELT
- Connaissance de Snowflake Airflow Terraform Kafka appréciée
- Intérêt pour les enjeux Ops : CI/CD monitoring performance
- À laise en environnement collaboratif agile avec une forte autonomie
Poste en CDI possible en Home Office uniquement en France et de préférence proche Nantes (PLO BRE IDF région Centre..). Retour sur site obligatoire toutes les 6 semaines.
Envie de rejoindre une aventure collective qui façonne la facture électronique de demain
Rejoignez le Village Connecté !
Informations supplémentaires :
Process de recrutement : 1er échange (visio ou présentiel) et 2e RDV physique (test technique (30 min) debrief échange avec léquipe)
Remote Work :
Yes
Employment Type :
Full-time
View more
View less