Nous recherchons un(e) Data Engineer H/F en CDI à proximité de Montpellier (Lattes) pour notre filiale Septeo ADB.
Ce que nous pouvons accomplir ensemble :
Dans le cadre de lindustrialisation des migrations de données dun ERP vers un autre léquipe Data renforce son pôle ETL / ELT.
Le poste sinscrit dans un environnement industriel orienté delivery avec des contraintes fortes de qualité reproductibilité et traçabilité.
Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec :
- Le Tech Lead Data et un data engineer
- Les équipes produit
- Les équipes métier (migration / fonctionnel)
- Les équipes infra / DevOps
Vos missions principales
èles de données (dbt)
- Concevoir et maintenir des modèles dbt (RAW REFINED TRUSTED)
- Implémenter les règles métier de façon explicite et documentée
- Centraliser les règles communes (mapping normalisation référentiels)
2. Robustesse & fiabilité des pipelines
- Pipelines reproductibles OS-agnostiques déployables via CI/CD
- Tests dbt (schéma unicité volumétrie) contrôles de cohérence inter-modèles
- Alertes sur écarts ou régressions optimisation des performances
3. Contributions applicatives
- Maintenir les endpoints API (FastAPI) et les interfaces ( 3 / Quasar) liés aux flux de migration et dimport
- Contribuer au système IA de suggestions en cascade (pattern matching embeddings LLM)
- Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server)
4. Documentation & collaboration transverse
- Documenter modèles règles de transformation conventions de nommage
- Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration
- Collaborer avec les équipes métier produit et infra
Nouvelle stack :
- Transformation :dbt SQL avancé Python
- Bases de données :SQL Server PostgreSQL ( pgvector) Snowflake / équivalent
- Orchestration :Airflow (ou équivalent)
- Application :FastAPI TypeScript Quasar
- IA :scikit-learn embeddings vectoriels NLP LLM
- Infra / CI/CD :Docker AWS ECS ECR S3 Bitbucket & Azure Pipelines
- Data quality :Tests dbt Pytest
Qualifications :
Et si cétait vous
- Bac3/5 en informatique ou équivalent avec au moins 2 à 5 ans dexpérience sur des projets data.
- Solide maîtrise de SQL (modélisation optimisation) et bonnes bases Python.
- Première expérience avec DBT et/ou Snowflake (Redshift BigQuery Synapse) est un plus.
- Connaissance des principes de CI/CD des tests automatisés et des bonnes pratiques DevOps.
- Vous savez travailler en équipe faire preuve de rigueur et dautonomie.
- Esprit dinitiative et goût du challenge dans un environnement en pleine évolution.
- Une expérience en développement web Python (Flask Django) et front (VueJS React) serait appréciée.
Informations supplémentaires :
Rejoindre Septeo cest aussi :
- Grandir et sépanouir grâce à un parcours de formation personnalisé des opportunités de mobilité interne et la possibilité de sauto-former via notre plateforme Udemy
- Vivre une aventure humaine échanger et partager autour dévènements thématisés (afterworks sport RSE séminaires etc.)
- Rejoindre un collectif qui prend soin des autres et sengage en faveur de légalité des chances la diversité et linclusion
Un process de recrutement en 3 étapes :
- Un premier échange téléphonique avec un(e) chargé(e) de recrutement pour vous présenter le poste et ses missions en savoir plus sur vous.
- Un second entretien avec un double objectif : vous présenter notre groupe et ses valeurs mais aussi connaitre vos motivations et ladéquation de votre projet professionnel avec le poste proposé.
- Enfin un entretien technique avec le Manager ainsi que le CTO pour valider lensemble de vos compétences.
Vous faites quoi lundi
Remote Work :
No
Employment Type :
Full-time
Nous recherchons un(e) Data Engineer H/F en CDI à proximité de Montpellier (Lattes) pour notre filiale Septeo ADB. Ce que nous pouvons accomplir ensemble :Dans le cadre de lindustrialisation des migrations de données dun ERP vers un autre léquipe Data renforce son pôle ETL / ELT.Le poste sinscrit da...
Nous recherchons un(e) Data Engineer H/F en CDI à proximité de Montpellier (Lattes) pour notre filiale Septeo ADB.
Ce que nous pouvons accomplir ensemble :
Dans le cadre de lindustrialisation des migrations de données dun ERP vers un autre léquipe Data renforce son pôle ETL / ELT.
Le poste sinscrit dans un environnement industriel orienté delivery avec des contraintes fortes de qualité reproductibilité et traçabilité.
Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec :
- Le Tech Lead Data et un data engineer
- Les équipes produit
- Les équipes métier (migration / fonctionnel)
- Les équipes infra / DevOps
Vos missions principales
èles de données (dbt)
- Concevoir et maintenir des modèles dbt (RAW REFINED TRUSTED)
- Implémenter les règles métier de façon explicite et documentée
- Centraliser les règles communes (mapping normalisation référentiels)
2. Robustesse & fiabilité des pipelines
- Pipelines reproductibles OS-agnostiques déployables via CI/CD
- Tests dbt (schéma unicité volumétrie) contrôles de cohérence inter-modèles
- Alertes sur écarts ou régressions optimisation des performances
3. Contributions applicatives
- Maintenir les endpoints API (FastAPI) et les interfaces ( 3 / Quasar) liés aux flux de migration et dimport
- Contribuer au système IA de suggestions en cascade (pattern matching embeddings LLM)
- Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server)
4. Documentation & collaboration transverse
- Documenter modèles règles de transformation conventions de nommage
- Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration
- Collaborer avec les équipes métier produit et infra
Nouvelle stack :
- Transformation :dbt SQL avancé Python
- Bases de données :SQL Server PostgreSQL ( pgvector) Snowflake / équivalent
- Orchestration :Airflow (ou équivalent)
- Application :FastAPI TypeScript Quasar
- IA :scikit-learn embeddings vectoriels NLP LLM
- Infra / CI/CD :Docker AWS ECS ECR S3 Bitbucket & Azure Pipelines
- Data quality :Tests dbt Pytest
Qualifications :
Et si cétait vous
- Bac3/5 en informatique ou équivalent avec au moins 2 à 5 ans dexpérience sur des projets data.
- Solide maîtrise de SQL (modélisation optimisation) et bonnes bases Python.
- Première expérience avec DBT et/ou Snowflake (Redshift BigQuery Synapse) est un plus.
- Connaissance des principes de CI/CD des tests automatisés et des bonnes pratiques DevOps.
- Vous savez travailler en équipe faire preuve de rigueur et dautonomie.
- Esprit dinitiative et goût du challenge dans un environnement en pleine évolution.
- Une expérience en développement web Python (Flask Django) et front (VueJS React) serait appréciée.
Informations supplémentaires :
Rejoindre Septeo cest aussi :
- Grandir et sépanouir grâce à un parcours de formation personnalisé des opportunités de mobilité interne et la possibilité de sauto-former via notre plateforme Udemy
- Vivre une aventure humaine échanger et partager autour dévènements thématisés (afterworks sport RSE séminaires etc.)
- Rejoindre un collectif qui prend soin des autres et sengage en faveur de légalité des chances la diversité et linclusion
Un process de recrutement en 3 étapes :
- Un premier échange téléphonique avec un(e) chargé(e) de recrutement pour vous présenter le poste et ses missions en savoir plus sur vous.
- Un second entretien avec un double objectif : vous présenter notre groupe et ses valeurs mais aussi connaitre vos motivations et ladéquation de votre projet professionnel avec le poste proposé.
- Enfin un entretien technique avec le Manager ainsi que le CTO pour valider lensemble de vos compétences.
Vous faites quoi lundi
Remote Work :
No
Employment Type :
Full-time
View more
View less