Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 7.400
CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Importante: se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente.
Buscamos pessoas da área de Engenheira e Analytics de Dados para atuar em um projeto de alta visibilidade com a migração de nossos Data Warehouses on-premise para a nuvem (Databricks).
Você será a ponte entre a engenharia de dados robusta e a criação de valor analítico para o negócio, garantindo que nossos dados sejam não apenas bem estruturados, mas também prontos para gerar insights.
Suas responsabilidades no dia a dia:
- Apoiar a frente técnica do projeto, desde a fase de descoberta e planejamento até a execução e otimização contínua no novo ambiente em nuvem.
- Projetar, desenvolver e otimizar pipelines de dados eficientes e escaláveis usando SQL avançado e Python/PySpark.
- Apoiar na criação de modelos de dados otimizados para consumo analítico, aplicando as melhores práticas de mercado como Star Schema e a estruturação em camadas (Bronze, Silver, Gold) para construir tabelas analíticas (OBTs) de alto desempenho.
- Apoiar na implementação e rotinas de testes, validações e governança para garantir a integridade, consistência e confiabilidade dos dados em todas as etapas do pipeline.
- Apoiar na criação e gerenciamento do roadmap do projeto, identificando dependências técnicas, planejando entregas e gerenciando mudanças de forma proativa.
Habilidades e Qualificações que buscamos:
- Vivência com bancos de dados relacionais (SQL, Oracle) e, principalmente, com o ecossistema Databricks (Spark, PySpark) e orquestradores como Azure Data Factory (ADF).
- Experiência na implementação das camadas de dados Bronze, Silver e Gold, além de modelos como Star Schema e Tabelas Analíticas (OBT).
- Experiência em qualidade de dados, governança e operações essenciais como MERGE em ambientes de Data Lakehouse.
- Experiência na criação e gestão de roadmaps técnicos.
- Experiência com SQL para consultas complexas e - Python/PySpark para transformação e manipulação de dados.
Diferenciais que nos impressionam:
- Certificações em Databricks ou Azure (ex: Azure Data Engineer).
- Experiência com ferramentas de orquestração de workflows (ex: Airflow).
- Familiaridade com plataformas de Business Intelligence (ex: Power BI, Tableau) e como os dados são consumidos.
- Vivência em metodologias ágeis.
#LI-DR3
#MidLevel