O que buscamos:
Profissional de Engenharia de Dados com experiência em ambientes distribuídos atuando na construção de pipelines escaláveis e resilientes. Buscamos alguém com domínio em Spark Scala e AWS capaz de apoiar decisões de arquitetura e garantir qualidade e governança dos dados.
Responsabilidades:
Projetar construir e manter pipelines de dados escaláveis e resilientes;
Trabalhar com grandes volumes de dados estruturados e não estruturados;
Garantir qualidade consistência e governança dos dados;
Colaborar com engenheiros de software analistas e cientistas de dados;
Participar de decisões técnicas sobre arquitetura de dados e ferramentas.
Requisitos e Qualificações:
Experiência com engenharia de dados em ambientes distribuídos;
Conhecimento em Apache Spark e Scala;
Experiência com AWS (Glue S3 EMR Athena Redshift etc.);
Conhecimento em modelagem de dados ETL/ELT e pipelines de dados;
Familiaridade com bancos de dados relacionais e NoSQL;
Experiência com processamento em batch e streaming;
Conhecimento em Data Lake Lakehouse Architecture DataOps processamento orientado a eventos e boas práticas de governança de dados.
Requisitos Diferenciais:
Experiência com Apache Kafka ou Amazon MSK;
Conhecimento em modernização de sistemas legados;
Experiência com Delta Lake Apache Hudi ou Iceberg;
Familiaridade com CI/CD para dados (dbt Airflow Terraform);
Descrição comportamental:
Procuramos uma pessoa que:
Big enough to deliver small enough to care.
#VempraGFT
#VamosVoarJuntos
#ProudToBeGFT
Required Experience:
IC
We see opportunity in technology. In domains such as cloud, AI, mainframe modernisation, DLT and IoT, we blend established practice with new thinking to help our clients stay ahead.