Modalidade: Hibrido 3x presencial
DESCRIÇÃO DO CARGO:
Profissional responsável pelo desenvolvimento e manutenção de pipelines de dados, automação de processos
e ingestão de dados estruturados e não estruturados. Atuará na construção, otimização e manutenção de
ambientes de dados, garantindo qualidade, integridade e disponibilidade das informações.
Terá participação ativa em projetos de dados, desde a captura até o processamento e disponibilização,
utilizando ferramentas do ecossistema Hadoop, linguagem Python e ambientes em Linux. Atuação também
com governança e qualidade de dados, apoiando na definição de padrões, processos e na resolução de
inconsistências.
RESPONSABILIDADES PRINCIPAIS
Construção e manutenção de pipelines de dados.
Desenvolvimento de processos de ingestão e transformação de dados.
Automação de rotinas utilizando Python e Shell Script.
Atuar no ecossistema Hadoop (Hive, HDFS, Pig, MapReduce).
Suporte à governança de dados, aplicando políticas de qualidade, consistência e integridade.
Administração de ambientes de dados em Linux.
Participar de reuniões técnicas, entender requisitos e propor soluções eficientes.
Suporte na resolução de incidentes, garantindo a continuidade dos processos de dados.
REQUISITOS
Obrigatórios:
Experiência como Engenheiro de Dados ou similar.
Conhecimento no ecossistema Hadoop (HDFS, Hive, Pig, MapReduce).
Domínio de Python para manipulação e automação de dados.
Sólido conhecimento em SQL para manipulação de grandes volumes de dados.
Experiência com sistemas operacionais Linux.
Vivência com processos de Governança de Dados.
Experiência na construção de processos ETL/ELT.
Diferenciais:
Experiência em ambientes cloud (AWS, Azure ou GCP).
Conhecimento em Pentester/Ethical Hacking (segurança de dados).
Conhecimento em ferramentas de automação e versionamento (Git).
Experiência em projetos com empresas de telecomunicações ou consultorias.
Metodologias:
– Metodologias Cascata e Ágil.