Vous aurez comme objectif de contribuer au développement et à la maintenance des flux de données permettant lintégration des données financières issues de systèmes legacy et déditeurs externes vers loutil AIS et les systèmes SAP.
Le/la consultant(e) aura pour responsabilités :
- Développement et maintenance des pipelines de transformation de données avec DBT.
- Manipulation et traitement de gros volumes de données via BigQuery et SQL avancé.
- Gestion des flux de données et intégration avec Pub/Sub.
- Automatisation des workflows data via GitLab CI/CD et Docker Compose.
- Développement de traitements batch pour lalimentation et lexport des flux de données.
- Mise en production des IHM génériques via inserts SQL.
- Développement de scripts Shell Bash dans un environnement Linux.
- Utilisation du framework interne Carrefour (Génépi).
- Collaboration avec léquipe Flux dans un environnement Agile.
Qualifications :
Diplômé(e) dun Bac5 en école dingénieur ou équivalent universitaire avec une spécialisation en informatique ou justifiant dune expérience significative équivalente
Expérience : Plus de 7 ans dexpérience en Data Engineering.
Compétences requises :
- DBT
- SQL avancé
- BigQuery
- GCP
- Pub/Sub
- GitLab CI/CD
- Docker Compose
- PostgreSQL
- Linux
- Shell Bash
- Git
- Vim
- Agile Scrum.
Informations supplémentaires :
Looking forward to hearing from you !
Remote Work :
No
Employment Type :
Full-time
Vous aurez comme objectif de contribuer au développement et à la maintenance des flux de données permettant lintégration des données financières issues de systèmes legacy et déditeurs externes vers loutil AIS et les systèmes SAP.Le/la consultant(e) aura pour responsabilités :Développement et mainten...
Vous aurez comme objectif de contribuer au développement et à la maintenance des flux de données permettant lintégration des données financières issues de systèmes legacy et déditeurs externes vers loutil AIS et les systèmes SAP.
Le/la consultant(e) aura pour responsabilités :
- Développement et maintenance des pipelines de transformation de données avec DBT.
- Manipulation et traitement de gros volumes de données via BigQuery et SQL avancé.
- Gestion des flux de données et intégration avec Pub/Sub.
- Automatisation des workflows data via GitLab CI/CD et Docker Compose.
- Développement de traitements batch pour lalimentation et lexport des flux de données.
- Mise en production des IHM génériques via inserts SQL.
- Développement de scripts Shell Bash dans un environnement Linux.
- Utilisation du framework interne Carrefour (Génépi).
- Collaboration avec léquipe Flux dans un environnement Agile.
Qualifications :
Diplômé(e) dun Bac5 en école dingénieur ou équivalent universitaire avec une spécialisation en informatique ou justifiant dune expérience significative équivalente
Expérience : Plus de 7 ans dexpérience en Data Engineering.
Compétences requises :
- DBT
- SQL avancé
- BigQuery
- GCP
- Pub/Sub
- GitLab CI/CD
- Docker Compose
- PostgreSQL
- Linux
- Shell Bash
- Git
- Vim
- Agile Scrum.
Informations supplémentaires :
Looking forward to hearing from you !
Remote Work :
No
Employment Type :
Full-time
View more
View less