🚠À propos dAMI Consulting ðŸ Entreprise innovante & familiale Lauréat de la bourse InnovUP de BPI France en 2019 AMI Consulting est spécialisé dans lexploitation de la data pour vous proposer des consultants experts adaptés à vos besoins. 🌠Engagement durable & bien-être Nous valorisons la qualité de vie de nos collaborateurs et adoptons une approche 100 % digitale pour la qualification la sélection et lintégration de nos talents réduisant ainsi notre empreinte carbone.
🎠Présentation de loffre
- Lieu :93
- Secteur : Banque
- Télétravail : Occasionnel selon les déplacements sur les autres sites
- CDI de mission : Package entre 50k en fonction du niveau dexpertise
- Freelance : Le client ne prend pas de freelance
- Expérience : Entre 6et 8ans (hors stages/alternances)
- Français : Courant
- Anglais : C1
ðŸ Contexte de la mission
Dans le cadre de ses activités Big Data une organisation du secteur de la protection sociale renforce ses équipes et recherche un Développeur Data expérimenté pour intervenir sur une plateforme Cloudera Hadoop.
La mission sinscrit dans un environnement data à forte volumétrie avec des enjeux majeurs autour de lalimentation du DataLake de la performance des traitements et de lexploitation des données.
Le consultant interviendra au sein dune équipe Big Data pour assurer le développement la maintenance et loptimisation des traitements tout en accompagnant les utilisateurs et en contribuant à la structuration des pratiques data.
ðŸ Responsabilités
Développement & alimentation DataLake
- Prendre en charge les évolutions des flux de données à intégrer
- Maintenir et faire évoluer les traitements dalimentation du DataLake
- Développer des traitements en Python SQL Shell et Spark
- Mettre en place des extractions de données adaptées aux besoins métiers
Expertise technique & qualité
- Rédiger les spécifications techniques et définir les requêtes de référence
- Réaliser des revues de code et garantir les bonnes pratiques de développement
- Contribuer à la maintenabilité la performance et lexploitabilité de la plateforme
- Optimiser les traitements existants
Support & accompagnement
- Assurer le support de niveau 2 auprès des utilisateurs
- Accompagner les équipes (y compris profils juniors / alternants)
- Documenter les processus et les développements
- Expliquer les sujets techniques à des interlocuteurs variés (techniques et métiers)
Structuration & amélioration continue
- Structurer lactivité via des outils de suivi (JIRA)
- Participer à la mise en place de processus et bonnes pratiques
- Réaliser des activités de reverse engineering dans un environnement legacy complexe
- Contribuer à la gouvernance des données et au respect des standards
ðŸï Compétences techniques
Stack Big Data
- Hadoop Cloudera
- Hive Impala
- Spark
Langages & scripting
- Python
- SQL (expert impératif)
- Shell (scripting avancé)
Environnement technique
- Linux
- Git
- Jupyter Notebook
- JIRA
Compétences complémentaires (appréciées)
- Power BI
- SAS
- Connaissance du secteur protection sociale / retraite
Compétences techniques clés
- Développement et optimisation de traitements Big Data
- Data engineering (alimentation transformation extraction)
- Reverse engineering sur systèmes complexes
- Automatisation des traitements
🚠À propos dAMI Consulting ðŸ Entreprise innovante & familiale Lauréat de la bourse InnovUP de BPI France en 2019 AMI Consulting est spécialisé dans lexploitation de la data pour vous proposer des consultants experts adaptés à vos besoins. 🌠Engagement durable & bien-être Nous valorisons la qu...
🚠À propos dAMI Consulting ðŸ Entreprise innovante & familiale Lauréat de la bourse InnovUP de BPI France en 2019 AMI Consulting est spécialisé dans lexploitation de la data pour vous proposer des consultants experts adaptés à vos besoins. 🌠Engagement durable & bien-être Nous valorisons la qualité de vie de nos collaborateurs et adoptons une approche 100 % digitale pour la qualification la sélection et lintégration de nos talents réduisant ainsi notre empreinte carbone.
🎠Présentation de loffre
- Lieu :93
- Secteur : Banque
- Télétravail : Occasionnel selon les déplacements sur les autres sites
- CDI de mission : Package entre 50k en fonction du niveau dexpertise
- Freelance : Le client ne prend pas de freelance
- Expérience : Entre 6et 8ans (hors stages/alternances)
- Français : Courant
- Anglais : C1
ðŸ Contexte de la mission
Dans le cadre de ses activités Big Data une organisation du secteur de la protection sociale renforce ses équipes et recherche un Développeur Data expérimenté pour intervenir sur une plateforme Cloudera Hadoop.
La mission sinscrit dans un environnement data à forte volumétrie avec des enjeux majeurs autour de lalimentation du DataLake de la performance des traitements et de lexploitation des données.
Le consultant interviendra au sein dune équipe Big Data pour assurer le développement la maintenance et loptimisation des traitements tout en accompagnant les utilisateurs et en contribuant à la structuration des pratiques data.
ðŸ Responsabilités
Développement & alimentation DataLake
- Prendre en charge les évolutions des flux de données à intégrer
- Maintenir et faire évoluer les traitements dalimentation du DataLake
- Développer des traitements en Python SQL Shell et Spark
- Mettre en place des extractions de données adaptées aux besoins métiers
Expertise technique & qualité
- Rédiger les spécifications techniques et définir les requêtes de référence
- Réaliser des revues de code et garantir les bonnes pratiques de développement
- Contribuer à la maintenabilité la performance et lexploitabilité de la plateforme
- Optimiser les traitements existants
Support & accompagnement
- Assurer le support de niveau 2 auprès des utilisateurs
- Accompagner les équipes (y compris profils juniors / alternants)
- Documenter les processus et les développements
- Expliquer les sujets techniques à des interlocuteurs variés (techniques et métiers)
Structuration & amélioration continue
- Structurer lactivité via des outils de suivi (JIRA)
- Participer à la mise en place de processus et bonnes pratiques
- Réaliser des activités de reverse engineering dans un environnement legacy complexe
- Contribuer à la gouvernance des données et au respect des standards
ðŸï Compétences techniques
Stack Big Data
- Hadoop Cloudera
- Hive Impala
- Spark
Langages & scripting
- Python
- SQL (expert impératif)
- Shell (scripting avancé)
Environnement technique
- Linux
- Git
- Jupyter Notebook
- JIRA
Compétences complémentaires (appréciées)
- Power BI
- SAS
- Connaissance du secteur protection sociale / retraite
Compétences techniques clés
- Développement et optimisation de traitements Big Data
- Data engineering (alimentation transformation extraction)
- Reverse engineering sur systèmes complexes
- Automatisation des traitements
View more
View less