En CRH Talento en IT estamos en búsqueda de un Data Engineer para laborar de forma Híbrida.
Si tienes experiencia con Apache Spark y Microsoft Fabric esta vacante es para ti.
Ubicación: CDMX o Monterrey
Beneficios:
- Contrato directo con cliente 100% nómina
- Prestaciones de ley SGMM y vacaciones adicionales
Requisitos:
Obligatorios:
Experiencia comprobada con Apache Spark.
Manejo de Microsoft Fabric (Dataflows Data Factory u otros módulos).
Dominio de SQL Python y/o Scala.
Experiencia diseñando y optimizando ETL/ELT.
Deseables (:
Conocimientos de DevOps para pipelines de datos (CI/CD IaC pruebas automatizadas).
Experiencia con Kafka Event Hubs u otros servicios de streaming.
Certificaciones en Azure Spark o Microsoft Fabric.
Experiencia con herramientas de visualización (Power BI Tableau).
Responsabilidades
Diseñar construir y mantener pipelines de datos escalables usando Apache Spark y Microsoft Fabric.Integrar datos de múltiples fuentes garantizando precisión calidad y consistencia.
Optimizar procesos ETL/ELT para mejorar desempeño escalabilidad y costos.
Implementar y mantener prácticas de data quality catalogación y gobernanza.
Colaborar con data scientists analistas y equipos de negocio para habilitar insights y modelos analíticos.
Documentar arquitecturas esquemas y flujos de datos.
Solucionar problemas en pipelines e infraestructura.
Asegurar el cumplimiento de políticas de seguridad y privacidad de datos.
Proponer mejoras e innovaciones basadas en nuevas tecnologías.
En CRH Talento en IT estamos en búsqueda de un Data Engineer para laborar de forma Híbrida. Si tienes experiencia con Apache Spark y Microsoft Fabric esta vacante es para ti.Ubicación: CDMX o Monterrey Beneficios:Contrato directo con cliente 100% nóminaPrestaciones de ley SGMM y vacaciones adiciona...
En CRH Talento en IT estamos en búsqueda de un Data Engineer para laborar de forma Híbrida.
Si tienes experiencia con Apache Spark y Microsoft Fabric esta vacante es para ti.
Ubicación: CDMX o Monterrey
Beneficios:
- Contrato directo con cliente 100% nómina
- Prestaciones de ley SGMM y vacaciones adicionales
Requisitos:
Obligatorios:
Experiencia comprobada con Apache Spark.
Manejo de Microsoft Fabric (Dataflows Data Factory u otros módulos).
Dominio de SQL Python y/o Scala.
Experiencia diseñando y optimizando ETL/ELT.
Deseables (:
Conocimientos de DevOps para pipelines de datos (CI/CD IaC pruebas automatizadas).
Experiencia con Kafka Event Hubs u otros servicios de streaming.
Certificaciones en Azure Spark o Microsoft Fabric.
Experiencia con herramientas de visualización (Power BI Tableau).
Responsabilidades
Diseñar construir y mantener pipelines de datos escalables usando Apache Spark y Microsoft Fabric.Integrar datos de múltiples fuentes garantizando precisión calidad y consistencia.
Optimizar procesos ETL/ELT para mejorar desempeño escalabilidad y costos.
Implementar y mantener prácticas de data quality catalogación y gobernanza.
Colaborar con data scientists analistas y equipos de negocio para habilitar insights y modelos analíticos.
Documentar arquitecturas esquemas y flujos de datos.
Solucionar problemas en pipelines e infraestructura.
Asegurar el cumplimiento de políticas de seguridad y privacidad de datos.
Proponer mejoras e innovaciones basadas en nuevas tecnologías.
View more
View less