Somos una empresa de tecnología especializada en el end to end de activos digitales que acompaña su oferta de staffing y fabrica de software con servicios de consultoría y tecnología que permiten escalar grandes transformaciones empresariales.
Buscamos un(a) Ingeniero de Datos con más de 3-5 años de experiencia responsable de analizar diseñar desarrollar desplegar y mantener soluciones de datos robustas eficientes y escalables tanto en ambientes OnPremise como en ecosistemas Big Data y Cloud. Este rol aportará activamente a la mejora continua optimización de procesos mentoría técnica y construcción de productos de datos alineados con la arquitectura y estándares definidos.
Responsabilidades:
- Analizar requerimientos y diseñar soluciones de datos alineadas a la visión de Arquitectura de Datos.
- Desarrollar y desplegar productos de datos como ETLs ELTs APIs y pipelines de información.
- Garantizar soluciones eficientes seguras mantenibles y alineadas con buenas prácticas como Clean Code.
- Aplicar estrategias de validación y testing funcional/no funcional orientadas a datos.
- Optimizar consultas scripts stored procedures vistas y otros objetos de base de datos.
- Diseñar y modelar bases de datos relacionales y no relacionales.
- Construir componentes reutilizables plantillas y lógicas genéricas para acelerar desarrollos.
- Resolver incidentes en estabilización y proponer soluciones sostenibles de largo plazo.
- Documentar productos de datos conforme a lineamientos y plataformas definidas.
- Participar en programación en pares onboarding y mentoría de otros Data Engineers.
Requisitos:
- Más de 3-5 años de experiencia en ingeniería de datos o roles afines.
- Experiencia en diseño y construcción de Datawarehouse Datamarts Datalake Lakehouse Data Mesh y Data Fabric.
- Dominio en bases de datos relacionales (Oracle SQL Server Postgres) y NoSQL (MongoDB Cassandra ElasticSearch Neo4J).
- Experiencia con herramientas ETL/ELT como SSIS Pentaho SAP Data Services Talend Stratio Azure Data Factory AWS Glue o DataFlow.
- Conocimiento en AWS Azure y Google Cloud Platform.
- Manejo de Apache Spark (SQL y Python) Kafka Flink y deseable Scala o Java.
- Conocimiento en procesamiento batch y streaming arquitecturas orientadas a eventos y estrategias DataOps/MLOps.
- Experiencia con control de versiones orquestación y procesos CI/CD.
- Deseable conocimiento del sector financiero bancario.
Competencias clave:
- Liderazgo.
- Orientación a objetivos.
- Análisis crítico.
- Trabajo en equipo.
- Comunicación efectiva.
- Responsabilidad y planificación.
- Proactividad para resolver bloqueantes.
- Capacidad de negociación y resolución de conflictos.
Somos una empresa de tecnología especializada en el end to end de activos digitales que acompaña su oferta de staffing y fabrica de software con servicios de consultoría y tecnología que permiten escalar grandes transformaciones empresariales. Buscamos un(a) Ingeniero de Datos con más de 3-5 años de...
Somos una empresa de tecnología especializada en el end to end de activos digitales que acompaña su oferta de staffing y fabrica de software con servicios de consultoría y tecnología que permiten escalar grandes transformaciones empresariales.
Buscamos un(a) Ingeniero de Datos con más de 3-5 años de experiencia responsable de analizar diseñar desarrollar desplegar y mantener soluciones de datos robustas eficientes y escalables tanto en ambientes OnPremise como en ecosistemas Big Data y Cloud. Este rol aportará activamente a la mejora continua optimización de procesos mentoría técnica y construcción de productos de datos alineados con la arquitectura y estándares definidos.
Responsabilidades:
- Analizar requerimientos y diseñar soluciones de datos alineadas a la visión de Arquitectura de Datos.
- Desarrollar y desplegar productos de datos como ETLs ELTs APIs y pipelines de información.
- Garantizar soluciones eficientes seguras mantenibles y alineadas con buenas prácticas como Clean Code.
- Aplicar estrategias de validación y testing funcional/no funcional orientadas a datos.
- Optimizar consultas scripts stored procedures vistas y otros objetos de base de datos.
- Diseñar y modelar bases de datos relacionales y no relacionales.
- Construir componentes reutilizables plantillas y lógicas genéricas para acelerar desarrollos.
- Resolver incidentes en estabilización y proponer soluciones sostenibles de largo plazo.
- Documentar productos de datos conforme a lineamientos y plataformas definidas.
- Participar en programación en pares onboarding y mentoría de otros Data Engineers.
Requisitos:
- Más de 3-5 años de experiencia en ingeniería de datos o roles afines.
- Experiencia en diseño y construcción de Datawarehouse Datamarts Datalake Lakehouse Data Mesh y Data Fabric.
- Dominio en bases de datos relacionales (Oracle SQL Server Postgres) y NoSQL (MongoDB Cassandra ElasticSearch Neo4J).
- Experiencia con herramientas ETL/ELT como SSIS Pentaho SAP Data Services Talend Stratio Azure Data Factory AWS Glue o DataFlow.
- Conocimiento en AWS Azure y Google Cloud Platform.
- Manejo de Apache Spark (SQL y Python) Kafka Flink y deseable Scala o Java.
- Conocimiento en procesamiento batch y streaming arquitecturas orientadas a eventos y estrategias DataOps/MLOps.
- Experiencia con control de versiones orquestación y procesos CI/CD.
- Deseable conocimiento del sector financiero bancario.
Competencias clave:
- Liderazgo.
- Orientación a objetivos.
- Análisis crítico.
- Trabajo en equipo.
- Comunicación efectiva.
- Responsabilidad y planificación.
- Proactividad para resolver bloqueantes.
- Capacidad de negociación y resolución de conflictos.
View more
View less