Analytics Engineer
Aqui na Riachuelo a gente se conecta com @vc! #CarreiraQueConecta 🚀❤️
Existimos para conectar desejos a realizações. E você escolher a Riachuelo para fazer a sua carreira acontecer é uma realização para a gente!
Aqui, nossos milhares de RCHLOVERS encontram o melhor ambiente para se transformarem e se desenvolverem junto com a gente. Afinal, somos moda, varejo, tech, logística, financeira, indústria e uma das maiores empregadoras do país! ♥
Vamos juntos construir o maior ecossistema de moda, lifestyle e produtos financeiros do Brasil!
Nosso time de DBM está em busca de um Analytics Engineer para compor a equipe!
♿ Lembramos que nossas oportunidades são para todos. Na Riachuelo, você encontra um ambiente diverso, com respeito e empatia, em que cuidamos dos RCHLOVERS.
Os desafios da função são:
- Desenvolvimento de datasets e automações: Criar e manter um conjunto de dados estruturado para uso pelas áreas de CRM e outros stakeholders, automatizando processos de ingestão, transformação e entrega de dados.
- Construção e manutenção de pipelines de dados: Desenvolver e gerenciar pipelines no Databricks usando tecnologias como Python e SQL para garantir a coleta, transformação e ingestão de dados de forma eficiente no datalake.
- Análise de dados e relatórios: Acompanhar e analisar os resultados dos dados, enviando relatórios recorrentes para os stakeholders, propondo melhorias contínuas e ajustes baseados nos insights gerados.
- Mentoria e referência técnica: Ser o ponto de referência em conceitos de tabelas no datalake e mentorar as equipes na correta utilização dos dados estruturados, promovendo a melhoria da cultura de dados.
- Documentação técnica: Estruturar e atualizar a documentação funcional e técnica dos pipelines e processos no Azure DevOps e Miro, garantindo a acessibilidade das informações para diferentes áreas.
- Monitoramento e automação: Implementar automações para monitorar a performance dos pipelines e ferramentas de dados, utilizando plataformas como Datadog para garantir o correto funcionamento dos processos.
- Alinhamento com stakeholders: Atuar como principal contato com as equipes de tecnologia e produto para negociar prioridades e garantir a entrega de dados para uso em mensuração, campanhas e outras análises.
É muito importante que você tenha e/ou saiba:
- Experiência com SQL, Python e desenvolvimento de pipelines de dados.
- Experiência com automações de processos de dados.
- Experiência com Databricks e ambientes de data lakes.
- Capacidade de criar e manter pipelines de dados de forma otimizada.
- Familiaridade com Azure DevOps, Miro e documentação técnica.
- Habilidade de atuar como referência técnica e mentor para outras equipes.
- Experiência com monitoramento de pipelines e ferramentas de dados (Datadog ou similar).
Desejável:
- Conhecimento em PySpark, Azure Data Factory e Event Hub.
- Conhecimento em machine learning aplicado a campanhas de CRM e Loyalty.
- Experiência com automação de processos de dados.
- Vivência com metodologias ágeis, como Scrum.