Contexte
Au sein dun environnement défense à fortes contraintes (sécurité traçabilité disponibilité) vous intégrez une équipe data en charge de construire et fiabiliser une plateforme de données et des pipelines industrialisés pour des cas dusage à fort impact opérationnel.
Vos missions
Concevoir et développer des pipelines dingestion / transformation robustes (batch et selon besoin streaming).
Industrialiser lorchestration (planification dépendances relances SLA) via un orchestrateur type Airflow.
Traiter et transformer la donnée à léchelle via Spark / PySpark (performance partitionnement optimisation).
Structurer les couches de transformation et la qualité des données avec une approche data products (tests documentation règles de qualité) potentiellement via dbt si pertinent.
Mettre en place lobservabilité : logs métriques alerting dashboards suivi de qualité et traçabilité.
Contribuer aux choix darchitecture (formats stockage modèles conventions outillage) en gardant en tête les contraintes sécurité / conformité.
Travailler en transverse avec les équipes logiciel infra et cyber (revues durcissement bonnes pratiques).
Environnement technique
On saligne sur des briques éprouvées data engineering modernes; le mix exact dépendra de larchi projet mais lADN reste : Python / industrialisation / data platform.
Langages : Python (expert) SQL
Orchestration : Apache Airflow (DAGs scheduling monitoring)
Processing : Apache Spark / PySpark (batch éventuel streaming)
Transformation : dbt (optionnel mais très apprécié)
Data stack : formats colonne (Parquet) lake/lakehouse (selon contexte) API / fichiers / bases
Ops : Git CI/CD Docker (Kubernetes apprécié) tests (pytest) qualité (Great Expectations apprécié)
Monitoring : Grafana/Prometheus/ELK
Qualifications :
Profil recherché
Expérience : 5 ans minimum en Data Engineering hors alternance / stages. Candidatures en-dessous non considérées.
Python niveau senior: code propre maintenable testé orienté production.
Très bon niveau sur au moins un moteur de traitement distribué (idéalement Spark/PySpark).
Culture industrialisation : CI/CD tests packaging observabilité run.
Capacité à évoluer en contexte procédural et sécurisé.
Habilitation Secret Défense ou éligibilité obligatoire.
Aisance orale en Anglais
Atouts fortement appréciés
Expérience sur des architectures data complexes (lake / lakehouse).
Streaming (Kafka ou équivalent).
Qualité et gouvernance des données (tests traçabilité règles métier).
Environnements industriels critiques ou à fortes contraintes réglementaires.
Informations supplémentaires :
Pourquoi rejoindre ALTEN
Vous intégrez un groupe international de référence dans le domaine de lingénierie et du conseil technologique.
Exposition à des projets denvergure au cœur de la transformation numérique des grands comptes.
Environnement stimulant forte culture technique opportunités de montée en compétence et de mobilité interne.
Atmosphère dynamique où lexpertise est valorisée lautonomie encouragée et le sens de limpact réel reconnu.
Type de contrat : CDI
Présentiel/ hybride à raison de plusieurs jours/semaine. PAS DE FULL REMOTE.
Localisation : Vitrolles
Démarrage : ASAP
Séniorité: 5 ans post diplôme
Remote Work :
No
Employment Type :
Full-time
?? ?????????? ???????????? ???? ?????????????????????? ?????? ???? ???????????????? ALTEN is committed to meeting the expectations of its stakeholders and anticipating their requirements in the fields of innovation, R&D, and technological information systems. Founded in 1988 and pr ... View more