Site Keep Simple
HUB ágil de inovação e tecnologia multiplataforma que constrói valor a qualquer modelo de negócio. Temos excelência em pessoas, serviços e produtos.
Vaga: Senior Data Engineer
Nível: Sênior
Modelo de Trabalho: 100% Remoto
Contrato: PJ
Empresa: Keep Simple (via Gupy)
Você é apaixonado(a) por infraestrutura de dados e quer construir a base para aplicações de Inteligência Artificial de ponta? Estamos em busca de um(a) Senior Data Engineer para atuar de forma 100% remota em projetos internacionais.
Nesta posição, você não terá um papel tradicional de engenharia de dados: seu grande desafio será construir a camada fundamental de dados para aplicações baseadas em LLMs, sistemas RAG e produtos de IA, operando lado a lado com pipelines clássicos e infraestrutura de analytics. Atenção: A fluência em inglês é um requisito estritamente obrigatório para esta vaga.
O seu dia a dia (na prática)
-
Pipelines e ETL/ELT: Projetar e construir pipelines escaláveis e tolerantes a falhas (batch e streaming) utilizando dbt, Spark, Dataflow e orquestradores como Airflow, Prefect ou Dagster.
-
Infraestrutura RAG e Bancos Vetoriais: Desenhar, implementar e otimizar infraestrutura de bancos vetoriais (Pinecone, Weaviate, ChromaDB, pgvector, etc.) e criar pipelines de ingestão, processamento de documentos e geração de embeddings.
-
Qualidade e Governança: Implementar frameworks de qualidade de dados (Great Expectations, Soda, dbt tests), monitoramento de anomalias, rastreamento de linhagem e políticas robustas de governança (controle de acesso, mascaramento de PII).
-
Plataforma e Cloud: Manter e arquitetar a plataforma core de dados na nuvem (AWS, Azure, GCP), construindo arquiteturas Data Lakehouse (Delta Lake, Apache Iceberg) e soluções em Data Warehouses (Snowflake, Databricks, BigQuery).
-
Infraestrutura para AI/ML: Construir e manter feature stores para treinamento e serviço de modelos, implementar versionamento de dados para experimentos de ML e criar infraestrutura de feedback loops para melhoria contínua das IAs.
O que você precisa ter no currículo (requisitos)
-
Inglês Fluente (Obrigatório): Excelente comunicação escrita e verbal no idioma para atuação direta em projetos internacionais com equipes globais.
-
Senioridade comprovada: Mais de 6 anos de experiência em engenharia de dados, com pelo menos 2 anos dedicados especificamente à infraestrutura de dados para sistemas de AI/ML.
-
Stack tecnológico: Nível especialista em Python e forte proficiência em SQL. Experiência em produção com a stack moderna de dados (dbt, Spark, Airflow e Cloud Data Warehouses).
-
Foco em IA e Vetores: Experiência prática, “mão na massa”, com bancos de dados vetoriais e construção de pipelines de dados RAG.
-
Base DevOps e IaC (Obrigatório): É exigida experiência prática com esteiras CI/CD, conteinerização (Docker/Kubernetes), plataformas Cloud (AWS, Azure ou GCP) e ferramentas de Infraestrutura como Código (Terraform, Pulumi, etc.).
-
O que te destaca (diferenciais): Experiência com feature stores para ML, arquiteturas Lakehouse, processamento de streaming (Kafka, Flink), bancos de grafos (Neo4j), tratamento de dados regulamentados (GDPR, HIPAA) e conhecimento de padrões de dados específicos para LLMs (como prompt logging e token analytics).
Benefícios
-
Modelo de contratação: A posição é para atuação no formato Pessoa Jurídica (PJ) de forma 100% remota (Nota: embora as tags da plataforma mencionem CLT, o descritivo oficial no rodapé da vaga confirma o modelo PJ).
-
Impacto global: Oportunidade incrível de trabalhar com tecnologias emergentes em projetos internacionais, colaborando diretamente com times multiculturais.
-
Pacote corporativo: Como o descritivo não detalha os benefícios corporativos além do formato PJ, essas informações serão alinhadas diretamente com a equipe de Talent Acquisition nas próximas etapas.
Para se candidatar a esta vaga, visite keepsimple.gupy.io.
