Tu rejoindras léquipe Data de RCA composée de 18 personnes (Data Engineers PM Analystes ML développeurs etc.) au cœur de nos enjeux produit cloud et performance.
Ton rôle : concevoir faire évoluer et maintenir nos pipelines data pour servir à la fois nos utilisateurs internes (outils daide à la décision) et nos clients externes (API exposées à destination des experts-comptables).
Tes missions :
- Concevoir des pipelines batch & streaming robustes scalables et maintenables
- Participer à la migration vers un traitement en temps réel (Kafka)
- Dockeriser les environnements Python et les intégrer aux pipelines CI/CD
- Concevoir et mettre en œuvre des architectures data
- Déployer des composants AWS avec Terraform en lien avec léquipe plateforme (IAM S3 EKS ECS etc.)
- Participer à la mise en place dune observabilité Data (logs qualité monitoring)
- Accompagner les Data Analysts & PM dans lindustrialisation des solutions
- Travailler dans une logique data as a product : forte proximité avec les usages
Stack & Environnement :
- Cloud : AWS (IAM S3 RDS EKS ECS DMS)
- Data Engineering : Airflow DBT Kafka Terraform
- Développement : Python (Poetry Pytest Black) SQL
- Stockage : Snowflake PostgreSQL
- CI/CD : GitLab CI
- BI : Holistics ThoughtSpot
- ML Ops : début dimplémentation présence dun Data Scientist Ingénieur ML
Enjeux & projets :
- Migration progressive vers du streaming (Kafka)
- Mise en place de solutions dobservabilité et de gouvernance data
- Automatisation et montée en puissance sur les sujets MLOps / IA générative
- Vision produit forte : la donnée est un levier métier et business clé
Qualifications :
Profil :
- 3 à 5 ans dexpérience en Data Engineering (ou plus si affinités !)
- Très bonne maîtrise de Python AWS ETL/ELT
- Connaissance de Snowflake Airflow Terraform Kafka appréciée
- Intérêt pour les enjeux Ops : CI/CD monitoring performance
- À laise en environnement collaboratif agile avec une forte autonomie
Poste en CDI basé à Nantes (jusquà 3 jours de télétravail possible)
Envie de rejoindre une aventure collective qui façonne la facture électronique de demain
Rejoignez le Village Connecté !
Informations supplémentaires :
Process de recrutement : 1er échange (visio ou présentiel) et 2e RDV physique (test technique (30 min) debrief échange avec léquipe)
Remote Work :
No
Employment Type :
Full-time
Tu rejoindras léquipe Data de RCA composée de 18 personnes (Data Engineers PM Analystes ML développeurs etc.) au cœur de nos enjeux produit cloud et performance.Ton rôle : concevoir faire évoluer et maintenir nos pipelines data pour servir à la fois nos utilisateurs internes (outils daide à la décis...
Tu rejoindras léquipe Data de RCA composée de 18 personnes (Data Engineers PM Analystes ML développeurs etc.) au cœur de nos enjeux produit cloud et performance.
Ton rôle : concevoir faire évoluer et maintenir nos pipelines data pour servir à la fois nos utilisateurs internes (outils daide à la décision) et nos clients externes (API exposées à destination des experts-comptables).
Tes missions :
- Concevoir des pipelines batch & streaming robustes scalables et maintenables
- Participer à la migration vers un traitement en temps réel (Kafka)
- Dockeriser les environnements Python et les intégrer aux pipelines CI/CD
- Concevoir et mettre en œuvre des architectures data
- Déployer des composants AWS avec Terraform en lien avec léquipe plateforme (IAM S3 EKS ECS etc.)
- Participer à la mise en place dune observabilité Data (logs qualité monitoring)
- Accompagner les Data Analysts & PM dans lindustrialisation des solutions
- Travailler dans une logique data as a product : forte proximité avec les usages
Stack & Environnement :
- Cloud : AWS (IAM S3 RDS EKS ECS DMS)
- Data Engineering : Airflow DBT Kafka Terraform
- Développement : Python (Poetry Pytest Black) SQL
- Stockage : Snowflake PostgreSQL
- CI/CD : GitLab CI
- BI : Holistics ThoughtSpot
- ML Ops : début dimplémentation présence dun Data Scientist Ingénieur ML
Enjeux & projets :
- Migration progressive vers du streaming (Kafka)
- Mise en place de solutions dobservabilité et de gouvernance data
- Automatisation et montée en puissance sur les sujets MLOps / IA générative
- Vision produit forte : la donnée est un levier métier et business clé
Qualifications :
Profil :
- 3 à 5 ans dexpérience en Data Engineering (ou plus si affinités !)
- Très bonne maîtrise de Python AWS ETL/ELT
- Connaissance de Snowflake Airflow Terraform Kafka appréciée
- Intérêt pour les enjeux Ops : CI/CD monitoring performance
- À laise en environnement collaboratif agile avec une forte autonomie
Poste en CDI basé à Nantes (jusquà 3 jours de télétravail possible)
Envie de rejoindre une aventure collective qui façonne la facture électronique de demain
Rejoignez le Village Connecté !
Informations supplémentaires :
Process de recrutement : 1er échange (visio ou présentiel) et 2e RDV physique (test technique (30 min) debrief échange avec léquipe)
Remote Work :
No
Employment Type :
Full-time
View more
View less