Nuestro cliente:
Nuestro cliente es una empresa especializada en consultoría desarrollo e implementación de soluciones basadas en Sistemas de Información Geográfica (GIS). Con más de dos décadas de experiencia colabora con entidades públicas y privadas ofreciendo servicios tecnológicos innovadores y personalizados para la gestión del territorio. Su equipo multidisciplinar trabaja con metodologías avanzadas y en constante formación lo que les permite adaptarse a nuevas tecnologías y mantener altos estándares de calidad.
Posición:
Actualmente estamos buscando un/a Ingeniero de datos especializado en Databricks.
Formación:
- Grado o Ingeniería Técnica/Superior en Informática Telecomunicaciones o disciplinas afines (Data Engineering / Data Science).
- Valorable: posgrado o formación específica en Big Data / Cloud / Arquitecturas de datos.
- Databricks Certified Data Engineer Associate (recomendable).
- Databricks Certified Data Engineer Professional (valorable).
- Microsoft Certified: Azure Data Engineer Associate (DP-203) (valorable).
Experiencia:
- 2 años en tratamiento explotación y análisis de datos en entornos productivos.
- Experiencia sólida en Databricks:
- Desarrollo con Apache Spark (PySpark y/o Scala) en Databricks.
- Operación de pipelines con Databricks Workflows/Jobs.
- Desarrollo colaborativo con Databricks Repos Git y prácticas de CI/CD.
- Experiencia en Delta Lake y patrones Lakehouse:
- Tablas Delta schema evolution time travel OPTIMIZE/Z-ORDER VACUUM.
- Diseño por capas Bronze/Silver/Gold y modelado para consumo analítico.
- Experiencia en calidad de datos:
- Detección registro seguimiento y resolución de incidencias de calidad.
- Definición de reglas de validación y monitorización.
- Experiencia en soporte a usuarios y herramientas de explotación.
ConocimientosDatabricks / Lakehouse (imprescindible):
- Databricks Lakehouse y mejores prácticas de desarrollo/operación.
- Unity Catalog:
- Catálogo permisos (RBAC) auditoría lineage y gobernanza.
- Databricks SQL.
- Optimización y rendimiento Spark: particionado file sizing manejo de skew caching buenas prácticas de clusters.
Lenguajes:
Cloud:
- Azure (preferente):
- ADLS Gen2 Azure Key Vault Entra ID (Azure AD).
- Integración/ingesta (valorable): Azure Data Factory.
- Capacidad de trasladar el mismo enfoque a:
- AWS (S3 IAM/KMS) y/o GCP (GCS IAM/KMS).
Operación:
- Gestión de incidencias y soporte con herramientas ITSM y nociones de SLAs.
Idiomas:
- Catalán (leído hablado y escrito).
Tareas principales
- Diseñar desarrollar y mantener pipelines de ingesta y transformación en Databricks.
- Implementar y operar arquitectura Lakehouse con Delta Lake.
- Definir e implantar controles de calidad de datos.
- Crear y mantener datasets listos para consumo.
- Gestionar gobernanza con Unity Catalog.
- Mejorar rendimiento y costes.
- Soporte a usuarios (técnicos y negocio) en uso de datasets/herramientas y resolución de problemas de permisos jobs y datos.
- Colaborar con seguridad y cumplimiento.
Otros conocimientos y experiencia valorable
- Experiencia en proyectos de Business Intelligence y definición de KPIs.
- Herramientas BI: Power BI / Superset / Tableau.
- Orquestación/ELT: dbt Airflow ADF (si aplica).
- Conocimientos de dominios de movilidad/transporte/servicios públicos.
- Familiaridad con ITIL y operación en entornos con criticidad alta.
Soft Skills
- Mentalidad analítica rigor y orientación al detalle (calidad del dato).
- Comunicación clara con perfiles técnicos y negocio.
- Trabajo en equipo y colaboración transversal.
- Responsabilidad en gestión de datos críticos y mejora continua.
- Adaptabilidad a cambios de prioridades/procesos
Se ofrece:
- Modalidad Hibrida
- Aprendizaje y desarrollo en la empresa.
- Salario competitivo.
- Incorporación inmediata.
Si has llegado hasta aquí y quieres saber más inscríbete en la oferta!
Nuestro cliente: Nuestro cliente es una empresa especializada en consultoría desarrollo e implementación de soluciones basadas en Sistemas de Información Geográfica (GIS). Con más de dos décadas de experiencia colabora con entidades públicas y privadas ofreciendo servicios tecnológicos innovadores y...
Nuestro cliente:
Nuestro cliente es una empresa especializada en consultoría desarrollo e implementación de soluciones basadas en Sistemas de Información Geográfica (GIS). Con más de dos décadas de experiencia colabora con entidades públicas y privadas ofreciendo servicios tecnológicos innovadores y personalizados para la gestión del territorio. Su equipo multidisciplinar trabaja con metodologías avanzadas y en constante formación lo que les permite adaptarse a nuevas tecnologías y mantener altos estándares de calidad.
Posición:
Actualmente estamos buscando un/a Ingeniero de datos especializado en Databricks.
Formación:
- Grado o Ingeniería Técnica/Superior en Informática Telecomunicaciones o disciplinas afines (Data Engineering / Data Science).
- Valorable: posgrado o formación específica en Big Data / Cloud / Arquitecturas de datos.
- Databricks Certified Data Engineer Associate (recomendable).
- Databricks Certified Data Engineer Professional (valorable).
- Microsoft Certified: Azure Data Engineer Associate (DP-203) (valorable).
Experiencia:
- 2 años en tratamiento explotación y análisis de datos en entornos productivos.
- Experiencia sólida en Databricks:
- Desarrollo con Apache Spark (PySpark y/o Scala) en Databricks.
- Operación de pipelines con Databricks Workflows/Jobs.
- Desarrollo colaborativo con Databricks Repos Git y prácticas de CI/CD.
- Experiencia en Delta Lake y patrones Lakehouse:
- Tablas Delta schema evolution time travel OPTIMIZE/Z-ORDER VACUUM.
- Diseño por capas Bronze/Silver/Gold y modelado para consumo analítico.
- Experiencia en calidad de datos:
- Detección registro seguimiento y resolución de incidencias de calidad.
- Definición de reglas de validación y monitorización.
- Experiencia en soporte a usuarios y herramientas de explotación.
ConocimientosDatabricks / Lakehouse (imprescindible):
- Databricks Lakehouse y mejores prácticas de desarrollo/operación.
- Unity Catalog:
- Catálogo permisos (RBAC) auditoría lineage y gobernanza.
- Databricks SQL.
- Optimización y rendimiento Spark: particionado file sizing manejo de skew caching buenas prácticas de clusters.
Lenguajes:
Cloud:
- Azure (preferente):
- ADLS Gen2 Azure Key Vault Entra ID (Azure AD).
- Integración/ingesta (valorable): Azure Data Factory.
- Capacidad de trasladar el mismo enfoque a:
- AWS (S3 IAM/KMS) y/o GCP (GCS IAM/KMS).
Operación:
- Gestión de incidencias y soporte con herramientas ITSM y nociones de SLAs.
Idiomas:
- Catalán (leído hablado y escrito).
Tareas principales
- Diseñar desarrollar y mantener pipelines de ingesta y transformación en Databricks.
- Implementar y operar arquitectura Lakehouse con Delta Lake.
- Definir e implantar controles de calidad de datos.
- Crear y mantener datasets listos para consumo.
- Gestionar gobernanza con Unity Catalog.
- Mejorar rendimiento y costes.
- Soporte a usuarios (técnicos y negocio) en uso de datasets/herramientas y resolución de problemas de permisos jobs y datos.
- Colaborar con seguridad y cumplimiento.
Otros conocimientos y experiencia valorable
- Experiencia en proyectos de Business Intelligence y definición de KPIs.
- Herramientas BI: Power BI / Superset / Tableau.
- Orquestación/ELT: dbt Airflow ADF (si aplica).
- Conocimientos de dominios de movilidad/transporte/servicios públicos.
- Familiaridad con ITIL y operación en entornos con criticidad alta.
Soft Skills
- Mentalidad analítica rigor y orientación al detalle (calidad del dato).
- Comunicación clara con perfiles técnicos y negocio.
- Trabajo en equipo y colaboración transversal.
- Responsabilidad en gestión de datos críticos y mejora continua.
- Adaptabilidad a cambios de prioridades/procesos
Se ofrece:
- Modalidad Hibrida
- Aprendizaje y desarrollo en la empresa.
- Salario competitivo.
- Incorporación inmediata.
Si has llegado hasta aquí y quieres saber más inscríbete en la oferta!
View more
View less