O que buscamos:
Profissional de nível Sênior que atue com (Dados/AWS).
Responsabilidade:
- Projetar desenvolver e manter pipelines de dados robustos e escaláveis;
- Garantir a qualidade governança integridade e segurança dos dados;
- Automatizar processos de coleta e processamento de dados;
- Monitorar e melhorar o desempenho dos sistemas de dados.
Requisitos:
- Experiência e conhecimentos técnicos Coleta transformação e carga de dados (ETL);
- Ferramentas de Big Data (Hadoop Spark etc.);
- Manipulação de grandes volumes de dados;
- Modelagem de banco de dados (SQL Data Warehouse Star Schema Snowflake);
- SQL avançado e linguagens de programação especialmente Python (PySpark SparkSQL);
- Bancos NoSQL (MongoDB DynamoDB);
- Ambientes descentralizados de dados (Data Mesh);
- Ingestão de dados em batch e em tempo real;
- Experiência obrigatória em AWS AWS EMR AWS Lambda AWS Glue (Crawlers Jobs Workflow) AWS Athena AWS Step Functions.
Diferenciais:
- AWS QuickSight DataDog (ou outra ferramenta de observabilidade) Kinesis Terraform
Descrição comportamental:
Procuramos uma pessoa que:
- Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
- Tenha coragem para se desafiar e ir além abraçando novas oportunidades de crescimento;
- Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
- Tenha habilidades de resolução de problemas;
- Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo;
- Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.
Big enough to deliver small enough to care.
#VempraGFT
#VamosVoarJuntos
#ProudToBeGFT
O que buscamos:Profissional de nível Sênior que atue com (Dados/AWS).Responsabilidade:Projetar desenvolver e manter pipelines de dados robustos e escaláveis;Garantir a qualidade governança integridade e segurança dos dados;Automatizar processos de coleta e processamento de dados;Monitorar e melhorar...
O que buscamos:
Profissional de nível Sênior que atue com (Dados/AWS).
Responsabilidade:
- Projetar desenvolver e manter pipelines de dados robustos e escaláveis;
- Garantir a qualidade governança integridade e segurança dos dados;
- Automatizar processos de coleta e processamento de dados;
- Monitorar e melhorar o desempenho dos sistemas de dados.
Requisitos:
- Experiência e conhecimentos técnicos Coleta transformação e carga de dados (ETL);
- Ferramentas de Big Data (Hadoop Spark etc.);
- Manipulação de grandes volumes de dados;
- Modelagem de banco de dados (SQL Data Warehouse Star Schema Snowflake);
- SQL avançado e linguagens de programação especialmente Python (PySpark SparkSQL);
- Bancos NoSQL (MongoDB DynamoDB);
- Ambientes descentralizados de dados (Data Mesh);
- Ingestão de dados em batch e em tempo real;
- Experiência obrigatória em AWS AWS EMR AWS Lambda AWS Glue (Crawlers Jobs Workflow) AWS Athena AWS Step Functions.
Diferenciais:
- AWS QuickSight DataDog (ou outra ferramenta de observabilidade) Kinesis Terraform
Descrição comportamental:
Procuramos uma pessoa que:
- Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
- Tenha coragem para se desafiar e ir além abraçando novas oportunidades de crescimento;
- Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
- Tenha habilidades de resolução de problemas;
- Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo;
- Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.
Big enough to deliver small enough to care.
#VempraGFT
#VamosVoarJuntos
#ProudToBeGFT
View more
View less