Buscamos un Data Engineer Senior con experiencia sólida en Databricks para diseñar implementar y optimizar soluciones de datos escalables en entornos cloud. El candidato ideal tendrá un profundo conocimiento en arquitecturas Big Data procesamiento distribuido y pipelines ETL además de habilidades para colaborar con equipos multidisciplinarios en proyectos de analítica avanzada y machine learning.
Responsabilidades principales:
- Diseñar y desarrollar pipelines de datos eficientes y escalables utilizando Databricks Spark y tecnologías relacionadas.
- Implementar procesos de ingestión transformación y almacenamiento de datos en entornos cloud (Azure AWS o GCP).
- Optimizar el rendimiento de clusters Spark y gestionar costos en plataformas Databricks.
- Garantizar la calidad gobernanza y seguridad de los datos en todas las etapas del ciclo de vida.
- Colaborar con equipos de Data Science y BI para habilitar modelos predictivos y dashboards.
- Automatizar procesos mediante CI/CD y herramientas de orquestación (Airflow Azure Data Factory etc.).
- Documentar arquitecturas y flujos de datos asegurando buenas prácticas y estándares.
Qualifications :
Requisitos:
- 5 años de experiencia en ingeniería de datos y entornos Big Data.
- Experiencia demostrable en Databricks y Apache Spark.
- Conocimiento avanzado en SQL Python y Scala.
- Experiencia en cloud computing (Azure AWS o GCP) y almacenamiento distribuido (Delta Lake Parquet).
- Familiaridad con CI/CD Git y herramientas de orquestación.
- Comprensión de arquitecturas orientadas a datos y principios de DataOps.
- Inglés profesional (oral y escrito).
Deseable:
- Certificaciones en Databricks o Azure/AWS/GCP.
- Experiencia en streaming de datos (Kafka Event Hub).
- Conocimiento de modelos de machine learning y su integración en pipelines.
Información adicional :
Qué ofrecemos
Programa de formación por parte de la empresa para que puedas seguir desarrollándote y promocionar dentro del plan de carrera que existe para ti.
Contrato indefinido y estabilidad.
Retribución flexible y más beneficios
Flexibilidad horaria.
Modalidad de teletrabajo híbrida.
Te ofrecemos un entorno dinámico en el que tu plan de carrera y crecimiento será nuestro objetivo.
Buen ambiente de trabajo abiertos e inclusivos.
Formarás parte de un gran equipo de profesionales con inquietud y motivación por la tecnología.
Remote Work :
Yes
Employment Type :
Full-time
Buscamos un Data Engineer Senior con experiencia sólida en Databricks para diseñar implementar y optimizar soluciones de datos escalables en entornos cloud. El candidato ideal tendrá un profundo conocimiento en arquitecturas Big Data procesamiento distribuido y pipelines ETL además de habilidades pa...
Buscamos un Data Engineer Senior con experiencia sólida en Databricks para diseñar implementar y optimizar soluciones de datos escalables en entornos cloud. El candidato ideal tendrá un profundo conocimiento en arquitecturas Big Data procesamiento distribuido y pipelines ETL además de habilidades para colaborar con equipos multidisciplinarios en proyectos de analítica avanzada y machine learning.
Responsabilidades principales:
- Diseñar y desarrollar pipelines de datos eficientes y escalables utilizando Databricks Spark y tecnologías relacionadas.
- Implementar procesos de ingestión transformación y almacenamiento de datos en entornos cloud (Azure AWS o GCP).
- Optimizar el rendimiento de clusters Spark y gestionar costos en plataformas Databricks.
- Garantizar la calidad gobernanza y seguridad de los datos en todas las etapas del ciclo de vida.
- Colaborar con equipos de Data Science y BI para habilitar modelos predictivos y dashboards.
- Automatizar procesos mediante CI/CD y herramientas de orquestación (Airflow Azure Data Factory etc.).
- Documentar arquitecturas y flujos de datos asegurando buenas prácticas y estándares.
Qualifications :
Requisitos:
- 5 años de experiencia en ingeniería de datos y entornos Big Data.
- Experiencia demostrable en Databricks y Apache Spark.
- Conocimiento avanzado en SQL Python y Scala.
- Experiencia en cloud computing (Azure AWS o GCP) y almacenamiento distribuido (Delta Lake Parquet).
- Familiaridad con CI/CD Git y herramientas de orquestación.
- Comprensión de arquitecturas orientadas a datos y principios de DataOps.
- Inglés profesional (oral y escrito).
Deseable:
- Certificaciones en Databricks o Azure/AWS/GCP.
- Experiencia en streaming de datos (Kafka Event Hub).
- Conocimiento de modelos de machine learning y su integración en pipelines.
Información adicional :
Qué ofrecemos
Programa de formación por parte de la empresa para que puedas seguir desarrollándote y promocionar dentro del plan de carrera que existe para ti.
Contrato indefinido y estabilidad.
Retribución flexible y más beneficios
Flexibilidad horaria.
Modalidad de teletrabajo híbrida.
Te ofrecemos un entorno dinámico en el que tu plan de carrera y crecimiento será nuestro objetivo.
Buen ambiente de trabajo abiertos e inclusivos.
Formarás parte de un gran equipo de profesionales con inquietud y motivación por la tecnología.
Remote Work :
Yes
Employment Type :
Full-time
View more
View less