Diseñar construir y mantener arquitecturas y pipelines de datos eficientes escalables y seguras que habiliten el acceso oportuno a información confiable para análisis modelos de machine learning y toma de decisiones estratégicas.
Qualifications :
Diseño y desarrollo
- Construir y optimizar pipelines ETL/ELT para integrar datos provenientes de múltiples fuentes.
- Implementar arquitecturas modernas de datos (Data Warehouse Data Lake Lakehouse).
- Desarrollar procesos de ingesta transformación y calidad de datos.
Administración y operación
- Mantener bases de datos relacionales y no relacionales.
- Monitorear y mejorar desempeño de procesos de datos.
- Gestionar versionamiento automatización y despliegues (CI/CD).
Gobernanza y calidad
- Aplicar estándares de calidad linaje y catalogación de datos.
- Implementar políticas de seguridad privacidad y cumplimiento regulatorio.
Colaboración
- Trabajar con analistas científicos de datos y equipos de negocio.
- Traducir necesidades del negocio en productos y soluciones de datos.
- Documentar procesos modelos de datos y arquitecturas.
Requisitos del Puesto
Formación Académica
- Ingeniería en Sistemas Computación Software Matemáticas Ciencia de Datos o afín.
- Deseable: Maestría o certificaciones técnicas.
Experiencia
- De 2 a 5 años en ingeniería de datos (adaptable según nivel).
- Experiencia en ambientes cloud y plataformas de datos.
Conocimientos Técnicos Obligatorios
- Lenguajes: Python SQL avanzado.
- Bases de datos: PostgreSQL MySQL SQL Server Oracle.
- Big Data: Spark Hadoop Databricks.
- Cloud: Azure Data Factory Azure Synapse AWS Glue/Redshift GCP BigQuery (según preferencia empresarial).
- Pipelines ETL/ELT: Airflow dbt Prefect.
- Herramientas de versionamiento: Git / GitHub / GitLab.
- Modelado de datos: Kimball Inmon Data Vault.
- Contenedores: Docker (deseable).
Competencias Blandas
- Pensamiento analítico y resolución de problemas.
- Gestión del tiempo y priorización.
- Comunicación efectiva con perfiles técnicos y no técnicos.
- Trabajo colaborativo y enfoque en negocio.
- Proactividad e innovación.
Información adicional :
Lo que ofrecemos
- Programas de formación continua y certificaciones.
- Acceso a plataformas de aprendizaje y desarrollo profesional.
- Cultura de innovación y colaboración.
- Programas de bienestar físico y emocional.
- Oportunidades de crecimiento en proyectos internacionales.
- Reconocimiento y recompensas por desempeño.
- Sueldo base
- Prestaciones superiores a las de la ley
- Seguro de vida
- Seguro de Gastos Médicos Mayores
- Vales de despensa
- Esquema 100% nómina
Remote Work :
Yes
Employment Type :
Full-time
Diseñar construir y mantener arquitecturas y pipelines de datos eficientes escalables y seguras que habiliten el acceso oportuno a información confiable para análisis modelos de machine learning y toma de decisiones estratégicas.Qualifications : Diseño y desarrolloConstruir y optimizar pipelines ET...
Diseñar construir y mantener arquitecturas y pipelines de datos eficientes escalables y seguras que habiliten el acceso oportuno a información confiable para análisis modelos de machine learning y toma de decisiones estratégicas.
Qualifications :
Diseño y desarrollo
- Construir y optimizar pipelines ETL/ELT para integrar datos provenientes de múltiples fuentes.
- Implementar arquitecturas modernas de datos (Data Warehouse Data Lake Lakehouse).
- Desarrollar procesos de ingesta transformación y calidad de datos.
Administración y operación
- Mantener bases de datos relacionales y no relacionales.
- Monitorear y mejorar desempeño de procesos de datos.
- Gestionar versionamiento automatización y despliegues (CI/CD).
Gobernanza y calidad
- Aplicar estándares de calidad linaje y catalogación de datos.
- Implementar políticas de seguridad privacidad y cumplimiento regulatorio.
Colaboración
- Trabajar con analistas científicos de datos y equipos de negocio.
- Traducir necesidades del negocio en productos y soluciones de datos.
- Documentar procesos modelos de datos y arquitecturas.
Requisitos del Puesto
Formación Académica
- Ingeniería en Sistemas Computación Software Matemáticas Ciencia de Datos o afín.
- Deseable: Maestría o certificaciones técnicas.
Experiencia
- De 2 a 5 años en ingeniería de datos (adaptable según nivel).
- Experiencia en ambientes cloud y plataformas de datos.
Conocimientos Técnicos Obligatorios
- Lenguajes: Python SQL avanzado.
- Bases de datos: PostgreSQL MySQL SQL Server Oracle.
- Big Data: Spark Hadoop Databricks.
- Cloud: Azure Data Factory Azure Synapse AWS Glue/Redshift GCP BigQuery (según preferencia empresarial).
- Pipelines ETL/ELT: Airflow dbt Prefect.
- Herramientas de versionamiento: Git / GitHub / GitLab.
- Modelado de datos: Kimball Inmon Data Vault.
- Contenedores: Docker (deseable).
Competencias Blandas
- Pensamiento analítico y resolución de problemas.
- Gestión del tiempo y priorización.
- Comunicación efectiva con perfiles técnicos y no técnicos.
- Trabajo colaborativo y enfoque en negocio.
- Proactividad e innovación.
Información adicional :
Lo que ofrecemos
- Programas de formación continua y certificaciones.
- Acceso a plataformas de aprendizaje y desarrollo profesional.
- Cultura de innovación y colaboración.
- Programas de bienestar físico y emocional.
- Oportunidades de crecimiento en proyectos internacionales.
- Reconocimiento y recompensas por desempeño.
- Sueldo base
- Prestaciones superiores a las de la ley
- Seguro de vida
- Seguro de Gastos Médicos Mayores
- Vales de despensa
- Esquema 100% nómina
Remote Work :
Yes
Employment Type :
Full-time
View more
View less