Vous serez amen :
- Concevoir les solutions : Guider lanalyse raliser le cadrage. Rdiger les spcifications technico-fonctionnelles. Prparer la recette. Suivre la mise en uvre (avec lquipe scrum).
- Raliser la modlisation des objets mtiers du domaine dans le socle Big Data (livrables : un MDD)
- Spcifier les flux dalimentation (livrables: contrat dinterface spcifications de mapping)
- Concevoir les expositions (WS et modles BDD) en collaboration avec lquipe de Gouvernance Data.
- Assurer la dimension fonctionnelle du domaine de donnes pris en charge
- Construire / Participer la construction de la roadmap du produit data
- Assurer une cohrence transverse avec les autres lignes produit de la plateforme
- tre garant de la qualit du domaine de donnes : concevoir/utiliser les tableaux de bord de qualit de donnes pour identifier les problmes et dettes techniques. Identifier les dfauts lis aux sourcing puis animer ce backlog auprs des diffrents fournisseurs.
- Qualifier documenter et donner du sens aux donnes manipules.
- Animer une communaut dutilisateurs de la donne : reprsenter la connaissance du process mtier et tre linterlocuteur privilgi des quipes mtiers et des correspondants IT
- Grer les demandes dvolutions ou les anomalies remontes par les consommateurs
- La manipulation de grandes volumtries de donnes (sous SQL/BigQuery) et analyse de
- donnes
- La gestion au quotidien dune quipe projet
- La capacit interagir avec des quipes non-techniques notamment dans les domaines Finance et Commerciales
Qualifications :
Diplm(e) dun Bac5 en Informatique.
Exprience de plus de 7 ans dans un poste similaire avec au moins 5 annes dexprience dans le monde de la data (Information dcisionnelle (BI) ou Big Data)
Comptences techniques :
- Solide exprience en dveloppement avec des langages comme Scala et/ou Java et une comprhension approfondie des concepts de programmation fonctionnelle.
- Comptences avres dans lutilisation de plateformes de streaming de donnes comme Apache Kafka et de frameworks de traitement de donnes distribues comme Apache Spark.
- Exprience significative dans le domaine de la Data et du Cloud (GCP ou AWS) en particulier les services tels que Cloud Storage BigQuery Dataproc Kubernetes et dautres outils pertinents pour la gestion et le traitement de donnes grande chelle
- Bonne matrise de BigQuery et du SQL avanc avec une exprience sur des traitements de gros volumes de donnes.
- Matrise des outils de CI/CD en particulier via GitLab CI/CD et Docker Compose pour lautomatisation des workflows data.
- Bonne connaissance de lenvironnement Linux et des outils de ligne de commande.
- Connaissance approfondie des concepts darchitecture microservices et des bonnes pratiques de dveloppement.
- Exprience dans lcriture de tests unitaires et dintgration pour garantir la qualit du code.
- Excellente communication crite et orale : Aptitude produire des livrables et des reportings de haute qualit.
- Connaissance sur Kafka-stream spring boot
- Travail en mthodologie agile (Scrum) avec une capacit collaborer efficacement dans des quipes pluridisciplinaires.
Informations supplmentaires :
Looking forward to hearing from you :
Remote Work :
Yes
Employment Type :
Full-time