O que buscamos:
Profissional de nível Pleno/Sênior que atue com (Dados). Modelo de atuação híbrido 1 a 2x por semana Morumbi/SP.
Responsabilidades:
- Atuar como referência técnica em engenharia de dados Azure orientando o time em padrões de implementação troubleshooting e boas práticas;
- Projetar desenvolver e sustentar pipelines de dados em Azure Data Factory e Databricks garantindo execução resiliente reprocessamento e rastreabilidade;
- Implementar e evoluir arquitetura Lakehouse com Delta Lake e camadas Bronze Silver Gold;
- Desenvolver transformações em PySpark e SQL com foco em performance paralelismo particionamento e redução de custo;
- Implementar padrões de qualidade de dados: validações reconciliação deduplicação tratamento de inconsistências e trilha de auditoria;
- Projetar e implementar integrações com fontes corporativas (bancos relacionais e APIs) e suportar ingestão incremental e CDC quando aplicável;
- Definir e supervisionar padrões de governança segurança e compliance em dados incluindo controle de acesso e conformidade com LGPD;
- Apoiar o time em revisões técnicas otimização de performance gestão de incidentes complexos e análise de causa raiz;
- Conduzir reuniões técnicas apresentações e workshops com o cliente em inglês;
- Garantir aderência às melhores práticas de engenharia de dados observabilidade e operação em produção (logs métricas alertas e SLAs).
Requisitos:
- Inglês avançado ou fluente para atuação em ambiente internacional;
- Experiência sólida como Engenheiro(a) de Dados em Azure;
- Experiência comprovada com Databricks em produção (Jobs/Workflows clusters policies repos e secrets);
- Domínio de Apache Spark (PySpark) e Python para processamento distribuído;
- SQL avançado para transformação otimização e modelagem analítica;
- Experiência com Delta Lake (MERGE schema evolution/enforcement OPTIMIZE/ZORDER VACUUM e boas práticas de escrita/leitura);
- Domínio de Azure Data Lake Storage Gen2 (ADLS) e organização de dados por domínio e camadas;
- Experiência com Azure Data Factory (pipelines triggers parametrização integrações e monitoração);
- Vivência com Git e CI/CD aplicados a pipelines de dados e promoção entre ambientes;
- Conhecimento sólido em segurança (RBAC Key Vault identities) e práticas de auditoria/compliance.
Desejável:
- Experiência com Unity Catalog (governança permissões e lineage);
- Conhecimento em Delta Live Tables e Auto Loader;
- Experiência com IaC (Terraform Bicep/ARM);
- Vivência com observabilidade de pipelines (Azure Monitor Log Analytics alertas e runbooks);
- Experiência com Purview (catálogo e governança);
- Certificações Azure (AZ-900 DP-900 DP-203) e/ou certificações Databricks (Data Engineer Associate/Professional);
- Experiência em setor regulado (financeiro seguros) com requisitos fortes de auditoria e compliance.
Descrição comportamental:
Procuramos uma pessoa que:
- Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
- Tenha coragem para se desafiar e ir além abraçando novas oportunidades de crescimento;
- Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
- Tenha habilidades de resolução de problemas;
- Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo;
- Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.
Big enough to deliver small enough to care.
#VempraGFT
#VamosVoarJuntos
#ProudToBeGFT
Required Experience:
Senior IC
O que buscamos:Profissional de nível Pleno/Sênior que atue com (Dados). Modelo de atuação híbrido 1 a 2x por semana Morumbi/SP.Responsabilidades:Atuar como referência técnica em engenharia de dados Azure orientando o time em padrões de implementação troubleshooting e boas práticas;Projetar desenvol...
O que buscamos:
Profissional de nível Pleno/Sênior que atue com (Dados). Modelo de atuação híbrido 1 a 2x por semana Morumbi/SP.
Responsabilidades:
- Atuar como referência técnica em engenharia de dados Azure orientando o time em padrões de implementação troubleshooting e boas práticas;
- Projetar desenvolver e sustentar pipelines de dados em Azure Data Factory e Databricks garantindo execução resiliente reprocessamento e rastreabilidade;
- Implementar e evoluir arquitetura Lakehouse com Delta Lake e camadas Bronze Silver Gold;
- Desenvolver transformações em PySpark e SQL com foco em performance paralelismo particionamento e redução de custo;
- Implementar padrões de qualidade de dados: validações reconciliação deduplicação tratamento de inconsistências e trilha de auditoria;
- Projetar e implementar integrações com fontes corporativas (bancos relacionais e APIs) e suportar ingestão incremental e CDC quando aplicável;
- Definir e supervisionar padrões de governança segurança e compliance em dados incluindo controle de acesso e conformidade com LGPD;
- Apoiar o time em revisões técnicas otimização de performance gestão de incidentes complexos e análise de causa raiz;
- Conduzir reuniões técnicas apresentações e workshops com o cliente em inglês;
- Garantir aderência às melhores práticas de engenharia de dados observabilidade e operação em produção (logs métricas alertas e SLAs).
Requisitos:
- Inglês avançado ou fluente para atuação em ambiente internacional;
- Experiência sólida como Engenheiro(a) de Dados em Azure;
- Experiência comprovada com Databricks em produção (Jobs/Workflows clusters policies repos e secrets);
- Domínio de Apache Spark (PySpark) e Python para processamento distribuído;
- SQL avançado para transformação otimização e modelagem analítica;
- Experiência com Delta Lake (MERGE schema evolution/enforcement OPTIMIZE/ZORDER VACUUM e boas práticas de escrita/leitura);
- Domínio de Azure Data Lake Storage Gen2 (ADLS) e organização de dados por domínio e camadas;
- Experiência com Azure Data Factory (pipelines triggers parametrização integrações e monitoração);
- Vivência com Git e CI/CD aplicados a pipelines de dados e promoção entre ambientes;
- Conhecimento sólido em segurança (RBAC Key Vault identities) e práticas de auditoria/compliance.
Desejável:
- Experiência com Unity Catalog (governança permissões e lineage);
- Conhecimento em Delta Live Tables e Auto Loader;
- Experiência com IaC (Terraform Bicep/ARM);
- Vivência com observabilidade de pipelines (Azure Monitor Log Analytics alertas e runbooks);
- Experiência com Purview (catálogo e governança);
- Certificações Azure (AZ-900 DP-900 DP-203) e/ou certificações Databricks (Data Engineer Associate/Professional);
- Experiência em setor regulado (financeiro seguros) com requisitos fortes de auditoria e compliance.
Descrição comportamental:
Procuramos uma pessoa que:
- Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
- Tenha coragem para se desafiar e ir além abraçando novas oportunidades de crescimento;
- Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
- Tenha habilidades de resolução de problemas;
- Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo;
- Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.
Big enough to deliver small enough to care.
#VempraGFT
#VamosVoarJuntos
#ProudToBeGFT
Required Experience:
Senior IC
View more
View less