Empregos Top

Data Developer (Engenharia de Dados) Sênior/Especialista

Sankhya Gestão de Negócios

Estamos com uma oportunidade para um(a)Data Developer Sênior ou Especialista (Engenharia de Dados) . Como parte do time de produtos de dados, sua missão é usar seus conhecimentos, habilidades para explorar problemas, desenhar, desenvolver produtos impactantes, entregar observando governança, segurança e performance, em um ambiente colaborativo e de inovação.

Acreditamos que a engenharia de dados é uma disciplina essencial para este produto, sendo responsável pela arquitetura e tecnologias para movimentar e organizar grandes volumes de dados, observando governança, segurança e performance.

  • Infra as a Code
  • OpenTofu/Terraform;
  • ‍Todas as nossas vagas estão disponíveis para pessoas com deficiência! Que tal se juntar ao nosso time e embarcar nessa jornada com a gente?Responsabilidades:
  • Participar das conversas sobre o produto e parear com Group Product Manager e Product Managers, entendendo e garantindo a entrega de valor;
  • Criar dashboards e visualizações de dados que apoiem a tomada de decisão;
  • Desenhar a arquitetura e avaliar as tecnologias disponíveis para resolver o problema certo;
  • Combinar a arquitetura e tecnologia para desenvolver e entregar componentes reutilizáveis como conectores, APIs, SDKs, CLIs;
  • Testar e automatizar tudo que for possível;
  • Validar e adaptar os componentes de acordo com os feedbacks dos usuários;
  • Colaborar com a qualidade e inovação tecnológica do produto e ambiente de trabalho.
  • Conhecimentos e HabilidadesFacilidade para aprender novas tecnologias e se adaptar às mudanças;
  • Git Workflows, CI/CD e automação de processos;
  • Facilidade de comunicação e colaboração com outras pessoas;
  • Conhecimento e habilidade em alguma linguagem de programação e consulta, preferencialmente Python e/ou Java e SQL;
  • Conhecimento e habilidade em alguma tecnologia de processamento distribuído, preferencialmente Spark;
  • Conhecimento e habilidade em alguma nuvem, incluindo serviços de computação, armazenamento, bancos de dados e Analytics em AWS;
  • Conhecimento e habilidade em bancos de dados SQL, NoSQL e serviços de streaming distribuídos, por exemplo: PostgreSQL, Cassandra e Kafka;
  • Conhecimento sobre arquiteturas de Big Data, por exemplo: Data Warehouse, Data Lake, Lambda, Kappa, Data Mesh;
  • Conhecimento sobre modelagem e cargas de trabalho de dados, incluindo modelagem normalizada, multi-dimensional, e cargas de trabalho OLTP e OLAP;
  • Vivência com grande volume de dados;

Requisitos e qualificações

  • Infra as a Code
  • OpenTofu/Terraform;

Git Workflows, CI/CD e automação de processos;

  • Conhecimento e habilidade em alguma linguagem de programação e consulta, preferencialmente Python e/ou Java e SQL;
  • Conhecimento e habilidade em alguma tecnologia de processamento distribuído, preferencialmente Spark;
  • Conhecimento e habilidade em alguma nuvem, incluindo serviços de computação, armazenamento, bancos de dados e Analytics em AWS;
  • Conhecimento e habilidade em bancos de dados SQL, NoSQL e serviços de streaming distribuídos, por exemplo: PostgreSQL, Cassandra e Kafka;
  • Conhecimento sobre arquiteturas de Big Data, por exemplo: Data Warehouse, Data Lake, Lambda, Kappa, Data Mesh;
  • Conhecimento sobre modelagem e cargas de trabalho de dados, incluindo modelagem normalizada, multi-dimensional, e cargas de trabalho OLTP e OLAP;
  • Vivência com grande volume de dados;
  • O que te tornaria um especialista para essa vaga:
  • Conhecimento avançado em alguma tecnologia de processamento distribuído, preferencialmente Spark, e/ou bancos de dados SQL e/ou NoSQL, preferencialmente Oracle, PostgreSQL e/ou DynamoDB;

Experiência com ambientes de Big Data em produção, incluindo o desenho da arquitetura, provisionamento de infraestrutura, desenvolvimento de integração de dados (pipelines, workflows), monitoramento de performance e custos;

  • O que seria muito legal se você tivesse:
  • Experiência com produtos em especial ERP;
  • Conhecimento em AWS: Athena, S3, Lambda, IAM;
  • Conhecimento em Cloud em especial AWS;
  • Conhecimento em em alguma plataforma como DataBricks, SnowFlake ou DataIku.
  • Ter participado em construção de produtos de dados e inteligência artificialO modelo de trabalho varia conforme a localização:
  • presencialpara quem está emUberlândia/MG ,híbrido(3x por semana no escritório) paraSão Paulo/SPeremotopara as demais regiões.

Se você deseja crescer, encarar novos desafios e fazer parte de um time que está construindo algo grande, seu lugar é aqui! Topa o desafio?Benefícios que vão além da Jornada SankherNa Sankhya, valorizamos a individualidade e oferecemos benefícios que promovem liberdade, equilíbrio e bem-estar em todas as áreas da vida.

Participação nos Resultados (PPR)Vale Alimentação/Refeição iFoodLicença Maternidade e Paternidade EstendidaAuxílio CrechePlano de saúdePlano odontológicoDay OFF no AniversárioEmpréstimo Consignado️ Auxílio vida saudávelSeguro de VidaVale TransporteEquipamentos Fornecidos pela EmpresaAuxílio IdiomasAuxílio Graduação, Pós-Graduação, Auxílio Certificações, Universidade Corporativa SankhyaNa Sankhya, sua jornada de crescimento nunca para.

  • Plano de Performance e Desenvolvimento Individual: Plano personalizado para seu crescimento profissional.
  • Touchpoints de Evolução com a Liderança: Encontros regulares com líderes para discutir seu progresso e desenvolvimento.
Vagas Relacionadas
- COMPARTILHE -

Siga nossa Página