job specification
Engenheiro de Dados - Júnior
A jornada de quem ama repensar o futuro está aqui.
Sobre a Rethink
Somos uma consultoria que une tecnologia, design e estratégia de produtos digitais para solucionar os desafios de grandes empresas brasileiras. Agora como parte da Framework Digital, ampliamos nosso impacto atuando de ponta a ponta na jornada digital, da concepção à escala.
Nossa missão é gerar valor real por meio de soluções que conectam times, sistemas e pessoas. Acreditamos que a transformação digital acontece quando estratégia, tecnologia e experiência andam juntas e é isso que entregamos.
Empresas como Smiles, Gol, Santander Esfera, Swift e Comgás confiam em nossa parceria para acelerar sua evolução digital com consistência e resultado.
Diversidade e Inclusão
Para repensar o futuro, é essencial garantir ambientes mais diversos e inclusivos. Por isso, incentivamos fortemente a candidatura de mulheres, pessoas pretas, pardas, indígenas, LGBTQIAPN+ e pessoas com deficiência.
Que tal repensar um futuro mais diverso com a gente?
Qual será o seu papel?
Como Engenheiro de Dados Júnior, seu papel será crucial no apoio à construção e sustentação de pipelines de dados robustos e eficientes, principalmente no ambiente Databricks. Você será responsável por garantir a entrega contínua de dados transformados e governados, desde a ingestão até a disponibilização para consumo analítico. Sua atuação contribuirá diretamente para a qualidade, confiabilidade e acessibilidade dos dados, sendo um membro fundamental na equipe de engenharia de dados.
Como será seu dia a dia?
- Apoiar a construção e sustentação de pipelines de dados no Databricks, utilizando notebooks, jobs e pipelines;
- Garantir a entrega contínua das camadas Bronze, Silver e Gold dentro da arquitetura de dados;
- Ingerir, transformar e disponibilizar dados para consumo analítico;
- Criar e manter tabelas Delta e views para suporte a dashboards e análises;
- Atuar com compartilhamento e consumo de dados via Delta Sharing;
- Apoiar a governança de dados utilizando Unity Catalog, gerenciando catálogos, schemas e permissões;
- Monitorar execuções de pipelines, identificar falhas e realizar troubleshooting;
- Corrigir causas-raiz e propor melhorias de confiabilidade e performance;
- Implementar e/ou apoiar validações de qualidade de dados;
- Documentar pipelines, regras de negócio e a linhagem básica dos dados;
- Colaborar com analistas, times de BI e áreas de negócio para entendimento de requisitos e evolução das entregas.
Para esta vaga, é essencial:
- Conhecimento sólido de SQL (joins, agregações, CTEs, window functions e modelagem básica para analytics);
- Conhecimento prático de Python para dados (manipulação, leitura/escrita e organização de código em notebooks);
- Noções de Apache Spark/Databricks (DataFrames, particionamento, leitura/escrita em Delta e execução distribuída em alto nível);
- Experiência inicial com Databricks (uso de notebooks, jobs, clusters e boas práticas básicas);
- Familiaridade com pipelines de dados e arquitetura Medallion (Bronze/Silver/Gold), mesmo em contexto acadêmico ou projetos;
- Conhecimento em Git e controle de versão (branch, PR e resolução simples de conflitos);
- Capacidade de investigar problemas (logs, métricas simples, reprocessamentos) e comunicar status com clareza;
- Disponibilidade para atuar com sustentação de rotinas, acompanhando falhas e correções dentro do horário acordado.
Você pode se destacar se:
- Tiver experiência com Azure Data Factory (pipelines, triggers, integrações, parâmetros, monitoramento).
- Possuir conhecimento prático de Unity Catalog (permissões, data access, boas práticas de governança).
- Tiver vivência com Delta Sharing (publicação/consumo e cuidados com segurança e contratos de dados).
- Possuir experiência com orquestração e automação (Databricks Workflows, CI/CD, Databricks Repos, Azure DevOps/GitHub Actions).
- Tiver conhecimento em Data Quality e Observabilidade (ex.: Great Expectations/Deequ, métricas, SLIs/SLOs, alertas).
- Possuir experiência em otimização no Databricks/Delta (partitioning, Z-ORDER, OPTIMIZE/VACUUM, caching, controle de custos).
- Tiver noções de modelagem dimensional e consumo por ferramentas de BI (camadas semânticas, performance para dashboards).
- Possuir conhecimento de segurança e boas práticas (RBAC, segregação de ambientes, secrets, princípios de menor privilégio).
Curtiu a oportunidade?
Então, vem repensar o futuro com a gente!
- Start Date:
- 13.04.2026
- Contact person:
- Bernd Kraft
- Company:
- Rethink by Framework Brazil, Ludwig-Erhard-Strasse 14
- Telephone:
- Job email:
- Click here
-
Pessoa Supervisora de BI e Inteligência de Mídia
-
Social Seller ( SDR - BDR ) Pré-Vendas consultiva
-
Auxiliar administrativo
-
Analista Financeiro Pleno (SQL e Phyton)
-
Roteirista e Copywriter — Conteúdo de Marca Pessoal (Freelancer)
-
Gerente de design
-
Gerente de Operações
-
Assistente de Recursos Humanos - Exclusivo PCD
-
Cientista de dados
-
Analista de Estratégia Comercial Pl.
-
Cleaning Validation Specialist in Ireland
-
Analista de Modelagem de Dados
-
ENGENHEIRO DE AUTOMAÇÃO PL
-
Representante Comercial Externo
-
Auxiliar Administrativo de Logística
