Contexte de la mission :
Dans le cadre dun projet stratgique au sein dun grand groupe du secteur public nous recherchons un DataOps confirm pour accompagner les quipes projet dans lindustrialisation le dploiement et le support de cas dusage Big Data.
Vous interviendrez dans un environnement Agile SAFe au sein dune quipe structure (Wagon) intgre dans un Train Data avec un primtre technique moderne et distribu (Hadoop Kafka Spark Docker Kubernetes).
Vos principales missions :
Activits principales (environ 70 %) :
- Support au build test release et POC des usages Big Data du primtre confi
- Dploiement des cas dusage en environnements de validation et de production
- Garant de la cohrence des processus CI/CD et des rgles de conformit (RGPD scurit)
- Participation active aux crmonies SAFe (Scrum of Scrums PI Planning...)
- Suivi de la capacit dquipe et gestion des actions de remdiation technique
Activits secondaires (environ 30 %) :
- Support de niveau 3 sur les incidents techniques/applicatifs lis aux dploiements
- Analyse des causes racines (root cause analysis) REX recommandations damlioration
- Interface avec les quipes socles (infrastructure scurit support transverse)
Profil recherch :
- Exprience confirme (2 ans) sur des missions DataOps en environnement Big Data onpremise
- Formation suprieure Bac4/5 en informatique
- Bonne comprhension des enjeux de dploiement industriel data pipeline intgration continue et scurit des donnes
- Aisance dans les environnements Agile / SAFe
Comptences techniques attendues :
- cosystmes Big Data : Hadoop (Cloudera) Kafka Spark
- CI/CD et conteneurisation : Jenkins Ansible Docker Kubernetes Git/GitLab
- Langages : Python Shell Scala
- Bases de donnes : Hive MySQL PostgreSQL Oracle MariaDB
- Supervision & Ordonnancement : Airflow Centreon Dynatrace Prometheus Grafana
- Cloud / Infrastructure : OpenShift VMware Bare Metal Azure Databricks
- Formats de donnes : JSON CSV XML Parquet
- Outils BI & Datascience : Tableau Dataiku Hue Dremio
- Outils complmentaires : Nginx Nexus Cyberwatch NiFi AWX
- Rgles de conformit : Bonne connaissance du RGPD
Qualifications :
Profil recherch :
- Exprience confirme ( 2 ans) sur des missions DataOps en environnement Big Data onpremise
- Formation suprieure Bac4/5 en informatique
- Bonne comprhension des enjeux de dploiement industriel data pipeline intgration continue et scurit des donnes
- Aisance dans les environnements Agile / SAFe
Comptences techniques attendues :
- cosystmes Big Data : Hadoop (Cloudera) Kafka Spark
- CI/CD et conteneurisation : Jenkins Ansible Docker Kubernetes Git/GitLab
- Langages : Python Shell Scala
- Bases de donnes : Hive MySQL PostgreSQL Oracle MariaDB
- Supervision & Ordonnancement : Airflow Centreon Dynatrace Prometheus Grafana
- Cloud / Infrastructure : OpenShift VMware Bare Metal Azure Databricks
- Formats de donnes : JSON CSV XML Parquet
- Outils BI & Datascience : Tableau Dataiku Hue Dremio
- Outils complmentaires : Nginx Nexus Cyberwatch NiFi AWX
- Rgles de conformit : Bonne connaissance du RGPD
Informations supplmentaires :
Vous tes DataOps avec une exprience concrte dans des environnements distribus et exigeants Rejoignez une mission ambitieuse fort enjeu technique et mtier.
Remote Work :
Yes
Employment Type :
Fulltime