Anúncio republicado automaticamente
Este anúncio foi sincronizado a partir da fonte externa Itjobs para facilitar a pesquisa em OnlyJobs. Podes consultar o anúncio original em www.itjobs.pt.
És responsável por esta oferta? Contacta a nossa equipa para reclamar a conta da empresa e gerir os anúncios oficiais diretamente na plataforma.
Description
📋 Descrição da Função
Neotalent Conclusion é uma das principais especialistas ibéricas em serviços de tecnologia e engenharia. Como parte do ecossistema global de mais de 25 empresas e 3.600 funcionários, focamos na ampliação da capacidade tecnológica dos nossos clientes e no transformação digital de suas aplicações.
Nossa ênfase está nos investimentos em inovação, nas metas alcançadas e, acima de tudo, na garantia de que os nossos profissionais terão carreiras felizes e recompensadoras. Com mais de 25 anos de experiência sólida, Neotalent Conclusion está presente em locais-chave como Lisboa, Porto e Madrid.
Somos a Neotalent, as pessoas responsáveis.
Para saber mais sobre nós, visite www.neotalent.pt.
🎯 Responsabilidades
- Designar, construir e manter plataformas de dados escalonáveis.
- Coletar, processar e analisar conjuntos grandes e complexos de dados provenientes de várias fontes.
- Desenvolver e implementar workflows de processamento de dados usando tecnologias de framework de processamento de dados como Spark e Apache Beam.
- Colaborar com equipes funcionais para garantir a precisão e integridade dos dados.
- Garantir segurança e privacidade dos dados através da implementação adequada de controles de acesso e criptografia de dados.
- Extração de dados de várias fontes, incluindo bancos de dados, sistemas de arquivos e APIs.
- **Monitorar o desempenho do sistema e otimizar para alta disponibilidade e escalabilidade.
📋 Requisitos
- Pelo menos 2 anos de experiência como Data Engineer com experiência em AWS.
- Conhecimento profundo de linguagens de programação, incluindo Python, Java ou Scala.
- Experiência com ferramentas de Big Data, como Spark, Flink, Kafka, Elastic Search, Hadoop, Hive, Sqoop, Flume, Impala, Kafka Streams e Connect, Druid, entre outras.
- Conhecimento em ferramentas de integração e ETL (por exemplo, Apache Kafka, Talend).
- Habilidade forte em SQL e experiência com bancos de dados relacional e NoSQL.
- Experiência com outros plataformas e serviços de engenharia de dados (como GCP, Azure Data Factory).
- Fluente em inglês tanto na escrita quanto na comunicação.
💰 Condições
- Salário competitivo.
- Possibilidade de trabalho remoto.
- Plano contínuo de treinamento e certificações.
- Programa interno de mobilidade profissional.
- E muito mais!
This description was automatically enhanced by AI for better readability, maintaining all original information.
Weather on start day
Saturday, 17 de January — Showers · Max 12° · Min 8° · Rain 20% (0.5mm) · Wind 11 km/h
Previsão para os dias seguintes
-
Sun, 18 JanPartly cloudyMax 12° · Min 7°
-
Mon, 19 JanShowersMax 13° · Min 8°
-
Tue, 20 JanPartly cloudyMax 15° · Min 9°
-
Wed, 21 JanShowersMax 15° · Min 11°
Detalhes
- Listing type
- Job Offer
- Schedule Type
- Full-time
- Category
- Tecnologia
- Status
- —
- Work Model
- Hybrid
- Location
- Lisboa, PT
- Start
- 17/01/2026