Anúncio republicado automaticamente
Este anúncio foi sincronizado a partir da fonte externa Itjobs para facilitar a pesquisa em OnlyJobs. Podes consultar o anúncio original em www.itjobs.pt.
És responsável por esta oferta? Contacta a nossa equipa para reclamar a conta da empresa e gerir os anúncios oficiais diretamente na plataforma.
Descrição
📋 Descrição da Função
Neotalent Conclusion é uma das principais especialistas ibéricas em serviços de tecnologia e engenharia. Como parte do ecossistema global de mais de 25 empresas e 3.600 funcionários, focamos na ampliação da capacidade tecnológica dos nossos clientes e no transformação digital de suas aplicações.
Nossa ênfase está nos investimentos em inovação, nas metas alcançadas e, acima de tudo, na garantia de que os nossos profissionais terão carreiras felizes e recompensadoras. Com mais de 25 anos de experiência sólida, Neotalent Conclusion está presente em locais-chave como Lisboa, Porto e Madrid.
Somos a Neotalent, as pessoas responsáveis.
Para saber mais sobre nós, visite www.neotalent.pt.
🎯 Responsabilidades
- Designar, construir e manter plataformas de dados escalonáveis.
- Coletar, processar e analisar conjuntos grandes e complexos de dados provenientes de várias fontes.
- Desenvolver e implementar workflows de processamento de dados usando tecnologias de framework de processamento de dados como Spark e Apache Beam.
- Colaborar com equipes funcionais para garantir a precisão e integridade dos dados.
- Garantir segurança e privacidade dos dados através da implementação adequada de controles de acesso e criptografia de dados.
- Extração de dados de várias fontes, incluindo bancos de dados, sistemas de arquivos e APIs.
- **Monitorar o desempenho do sistema e otimizar para alta disponibilidade e escalabilidade.
📋 Requisitos
- Pelo menos 2 anos de experiência como Data Engineer com experiência em AWS.
- Conhecimento profundo de linguagens de programação, incluindo Python, Java ou Scala.
- Experiência com ferramentas de Big Data, como Spark, Flink, Kafka, Elastic Search, Hadoop, Hive, Sqoop, Flume, Impala, Kafka Streams e Connect, Druid, entre outras.
- Conhecimento em ferramentas de integração e ETL (por exemplo, Apache Kafka, Talend).
- Habilidade forte em SQL e experiência com bancos de dados relacional e NoSQL.
- Experiência com outros plataformas e serviços de engenharia de dados (como GCP, Azure Data Factory).
- Fluente em inglês tanto na escrita quanto na comunicação.
💰 Condições
- Salário competitivo.
- Possibilidade de trabalho remoto.
- Plano contínuo de treinamento e certificações.
- Programa interno de mobilidade profissional.
- E muito mais!
Esta descrição foi aprimorada automaticamente com IA para melhor legibilidade, mantendo toda a informação original.
Meteorologia no dia de início
sábado, 17 de janeiro — Aguaceiros · Máx 12° · Mín 8° · Chuva 20% (0.5mm) · Vento 11 km/h
Previsão para os dias seguintes
-
dom, 18 janParcialmente nubladoMáx 12° · Mín 7°
-
seg, 19 janAguaceirosMáx 13° · Mín 8°
-
ter, 20 janParcialmente nubladoMáx 15° · Mín 9°
-
qua, 21 janAguaceirosMáx 15° · Mín 11°
Detalhes
- Tipo de listagem
- Oferta de emprego
- Tipo horário
- Full-time
- Categoria
- Tecnologia
- Estado
- —
- Modelo trabalho
- Híbrido
- Localização
- Lisboa, PT
- Início
- 17/01/2026