Qué harás
Formarás parte de un equipo responsable de desarrollar y desplegar soluciones de procesamiento de datos distribuidos dentro de una arquitectura ya establecida. Trabajarás mano a mano con perfiles de análisis funcional y arquitectura implementando la lógica de negocio en flujos de datos reales orientados a eventos.
Tu día a día girará en torno a:
Desarrollo de pipelines de datos distribuidos con Spark (PySpark).
Implementación de DAGs en Apache Airflow para orquestación.
Construcción de procesos ETL desde fuentes como Oracle hacia arquitecturas EDA.
Uso intensivo de Python para programar la lógica de transformación y procesamiento.
Participación activa en la mejora continua de los procesos trabajando bajo buenas prácticas y metodologías ágiles.
Requisitos:
Experiencia sólida en desarrollo con Python.
Conocimiento y uso práctico de Apache Spark.
Familiaridad con Apache Airflow: creación y mantenimiento de DAGs.
Capacidad para trabajar con bases de datos relacionales y manejar SQL avanzado especialmente sobre Oracle.
Experiencia en proyectos de datos reales con foco en ingesta procesamiento y entrega de información.
Ganas de construir soluciones escalables modulares y con impacto.
Qué te ofrecemos
Participación en un proyecto estratégico en el sector bancario.
Una arquitectura ya implantada donde tu rol será hacerla realidad desarrollando los procesos que dan vida a los datos.
Trabajo colaborativo con perfiles de análisis y arquitectura que te ayudarán a centrarte en lo que mejor haces: desarrollar soluciones de datos.
Entorno técnico puntero: Spark Airflow Python arquitecturas EDA ingesta desde Oracle.
Modalidad híbrida/remota y salario competitivo acorde a tu experiencia y potencial.
Qualifications :
- Implementación de procesos de asimilación y tratamiento de información sobre arquitecturas complejas y con un alto volumen de datos
- Realización de pruebas unitarias de integración y de regresión
- Otras funciones habituales de implementación de proyectos de software
Información adicional :
Posibilidad de teletrabajo con desplazamientos a cliente ubicado en Madrid.
Remote Work :
Yes
Employment Type :
Full-time
Qué harásFormarás parte de un equipo responsable de desarrollar y desplegar soluciones de procesamiento de datos distribuidos dentro de una arquitectura ya establecida. Trabajarás mano a mano con perfiles de análisis funcional y arquitectura implementando la lógica de negocio en flujos de datos real...
Qué harás
Formarás parte de un equipo responsable de desarrollar y desplegar soluciones de procesamiento de datos distribuidos dentro de una arquitectura ya establecida. Trabajarás mano a mano con perfiles de análisis funcional y arquitectura implementando la lógica de negocio en flujos de datos reales orientados a eventos.
Tu día a día girará en torno a:
Desarrollo de pipelines de datos distribuidos con Spark (PySpark).
Implementación de DAGs en Apache Airflow para orquestación.
Construcción de procesos ETL desde fuentes como Oracle hacia arquitecturas EDA.
Uso intensivo de Python para programar la lógica de transformación y procesamiento.
Participación activa en la mejora continua de los procesos trabajando bajo buenas prácticas y metodologías ágiles.
Requisitos:
Experiencia sólida en desarrollo con Python.
Conocimiento y uso práctico de Apache Spark.
Familiaridad con Apache Airflow: creación y mantenimiento de DAGs.
Capacidad para trabajar con bases de datos relacionales y manejar SQL avanzado especialmente sobre Oracle.
Experiencia en proyectos de datos reales con foco en ingesta procesamiento y entrega de información.
Ganas de construir soluciones escalables modulares y con impacto.
Qué te ofrecemos
Participación en un proyecto estratégico en el sector bancario.
Una arquitectura ya implantada donde tu rol será hacerla realidad desarrollando los procesos que dan vida a los datos.
Trabajo colaborativo con perfiles de análisis y arquitectura que te ayudarán a centrarte en lo que mejor haces: desarrollar soluciones de datos.
Entorno técnico puntero: Spark Airflow Python arquitecturas EDA ingesta desde Oracle.
Modalidad híbrida/remota y salario competitivo acorde a tu experiencia y potencial.
Qualifications :
- Implementación de procesos de asimilación y tratamiento de información sobre arquitecturas complejas y con un alto volumen de datos
- Realización de pruebas unitarias de integración y de regresión
- Otras funciones habituales de implementación de proyectos de software
Información adicional :
Posibilidad de teletrabajo con desplazamientos a cliente ubicado en Madrid.
Remote Work :
Yes
Employment Type :
Full-time
View more
View less