- Desenvolver manter e otimizar pipelines de ETL garantindo fluxo eficiente de dados e integração entre fontes de dados e plataformas de análise;
- Projetar e implementar soluções robustas em Python / Pyspark com foco em escalabilidade desempenho e confiabilidade;
- Trabalhar em parceria com stakeholders de negócio analistas de dados cientistas de dados e times de trading para entender suas necessidades oferecendo soluções técnicas que viabilizem análises eficazes e promovam a alfabetização em dados dos usuários-chave;
- Garantir qualidade e manutenção de código e dados aplicando princípios de gestão de dados versionamento de código testes automatizados e revisões entre pares.
Qualifications :
- Bacharelado ou Mestrado em Ciência da Computação Engenharia Sistemas de Informação ou áreas correlatas;
- Domínio em programação Python / PySpark e experiência com boas práticas de desenvolvimento de software;
- Conhecimento sólido em processos de ETL modelagem de dados e data warehousing;
- Conhecimento em princípios de armazenamento de dados incluindo data lakes e bancos de dados SQL;
- Inglês avançado/fluente;
- Vivência com soluções de visualização de dados (Power BI Tableau ou similares);
- Experiência com tecnologias e serviços em nuvem preferencialmente em Azure e Databricks;
- Conhecimento em tecnologias geoespaciais (desejável);
- Experiência prévia em serviços financeiros ou ambientes de trading especialmente no setor de commodities agrícolas ou supply chain é um diferencial.
Additional Information :
- Disponibilidade para atuar no modelo híbrido (4x1) em São Paulo-SP.
Remote Work :
No
Employment Type :
Full-time
Desenvolver manter e otimizar pipelines de ETL garantindo fluxo eficiente de dados e integração entre fontes de dados e plataformas de análise;Projetar e implementar soluções robustas em Python / Pyspark com foco em escalabilidade desempenho e confiabilidade;Trabalhar em parceria com stakeholders de...
- Desenvolver manter e otimizar pipelines de ETL garantindo fluxo eficiente de dados e integração entre fontes de dados e plataformas de análise;
- Projetar e implementar soluções robustas em Python / Pyspark com foco em escalabilidade desempenho e confiabilidade;
- Trabalhar em parceria com stakeholders de negócio analistas de dados cientistas de dados e times de trading para entender suas necessidades oferecendo soluções técnicas que viabilizem análises eficazes e promovam a alfabetização em dados dos usuários-chave;
- Garantir qualidade e manutenção de código e dados aplicando princípios de gestão de dados versionamento de código testes automatizados e revisões entre pares.
Qualifications :
- Bacharelado ou Mestrado em Ciência da Computação Engenharia Sistemas de Informação ou áreas correlatas;
- Domínio em programação Python / PySpark e experiência com boas práticas de desenvolvimento de software;
- Conhecimento sólido em processos de ETL modelagem de dados e data warehousing;
- Conhecimento em princípios de armazenamento de dados incluindo data lakes e bancos de dados SQL;
- Inglês avançado/fluente;
- Vivência com soluções de visualização de dados (Power BI Tableau ou similares);
- Experiência com tecnologias e serviços em nuvem preferencialmente em Azure e Databricks;
- Conhecimento em tecnologias geoespaciais (desejável);
- Experiência prévia em serviços financeiros ou ambientes de trading especialmente no setor de commodities agrícolas ou supply chain é um diferencial.
Additional Information :
- Disponibilidade para atuar no modelo híbrido (4x1) em São Paulo-SP.
Remote Work :
No
Employment Type :
Full-time
View more
View less