Ofertas de empleo
Ingeniero de Datos - Remoto (Exp en Banca) KP-001
Acerca del puesto Ingeniero de Datos - Remoto (Exp en Banca) KP-001
Somos una empresa de tecnología especializada en el end to end de activos digitales, que acompaña su oferta de staffing y fabrica de software con servicios de consultoría y tecnología que permiten escalar grandes transformaciones empresariales.
Buscamos un(a) Ingeniero de Datos con más de 3-5 años de experiencia, responsable de analizar, diseñar, desarrollar, desplegar y mantener soluciones de datos robustas, eficientes y escalables, tanto en ambientes OnPremise como en ecosistemas Big Data y Cloud. Este rol aportará activamente a la mejora continua, optimización de procesos, mentoría técnica y construcción de productos de datos alineados con la arquitectura y estándares definidos.
Responsabilidades:
- Analizar requerimientos y diseñar soluciones de datos alineadas a la visión de Arquitectura de Datos.
- Desarrollar y desplegar productos de datos como ETLs, ELTs, APIs y pipelines de información.
- Garantizar soluciones eficientes, seguras, mantenibles y alineadas con buenas prácticas como Clean Code.
- Aplicar estrategias de validación y testing funcional/no funcional orientadas a datos.
- Optimizar consultas, scripts, stored procedures, vistas y otros objetos de base de datos.
- Diseñar y modelar bases de datos relacionales y no relacionales.
- Construir componentes reutilizables, plantillas y lógicas genéricas para acelerar desarrollos.
- Resolver incidentes en estabilización y proponer soluciones sostenibles de largo plazo.
- Documentar productos de datos conforme a lineamientos y plataformas definidas.
- Participar en programación en pares, onboarding y mentoría de otros Data Engineers.
Requisitos:
- Más de 3-5 años de experiencia en ingeniería de datos o roles afines.
- Experiencia en diseño y construcción de Datawarehouse, Datamarts, Datalake, Lakehouse, Data Mesh y Data Fabric.
- Dominio en bases de datos relacionales (Oracle, SQL Server, Postgres) y NoSQL (MongoDB, Cassandra, ElasticSearch, Neo4J).
- Experiencia con herramientas ETL/ELT como SSIS, Pentaho, SAP Data Services, Talend, Stratio, Azure Data Factory, AWS Glue o DataFlow.
- Conocimiento en AWS, Azure y Google Cloud Platform.
- Manejo de Apache Spark (SQL y Python), Kafka, Flink, y deseable Scala o Java.
- Conocimiento en procesamiento batch y streaming, arquitecturas orientadas a eventos y estrategias DataOps/MLOps.
- Experiencia con control de versiones, orquestación y procesos CI/CD.
- Deseable conocimiento del sector financiero bancario.
Competencias clave:
- Liderazgo.
- Orientación a objetivos.
- Análisis crítico.
- Trabajo en equipo.
- Comunicación efectiva.
- Responsabilidad y planificación.
- Proactividad para resolver bloqueantes.
- Capacidad de negociación y resolución de conflictos.