Job Openings
202509 Ingeniero/a de Datos SAP / Python / GCP Pleno
About the job 202509 Ingeniero/a de Datos SAP / Python / GCP Pleno
DIGITALHUB es una empresa peruana de outsourcing de servicios de BPO y TI. Nuestra visión es un futuro en el que cada persona pueda encontrar el mejor empleo y donde nuestros partners puedan descubrir lo mejor del talento latinoamericano.
NUESTROS VALORES
- Búsqueda de la excelencia: Somos extremadamente competitivos, ambiciosos y nos esforzamos por ser excepcionales, como individuos, equipos y como organización.
- Mentalidad de startup: Es una ventaja fundamental que nos permite avanzar más rápido, ser más ingeniosos y empoderar a nuestro equipo en todos los niveles.
- Colaboración remota de primer nivel: No tenemos oficinas y nuestros equipos están distribuidos por todo el mundo. Dada la libertad y autonomía que esto proporciona, exigimos que nuestra gente se destaque en esta estructura remota.
ACERCA DEL PUESTO
Estamos en la búsqueda de un/a Ingeniero/a de Datos con experiencia intermedio-avanzada en SAP (R/3 y/o S/4HANA), scripting y ETL en Python, SQL y Google Cloud (especialmente BigQuery). Modalidad híbrida (3 días presencial en Lima, 2 remotos) por 3 meses. Contrato a tiempo completo.
RESPONSABILIDADES CLAVES:
- Extracción de datos desde SAP R/3 y/o S/4HANA
- Desarrollar y mantener scripts en Python utilizando SAP GUI Scripting u otros métodos de integración para automatizar la extracción de datos de módulos SAP.
- Garantizar que los procesos de extracción se ejecuten de manera segura y eficiente, reduciendo la dependencia de cargas manuales.
- Transformación de datos (ETL en Python)
- Implementar procesos de transformación y limpieza usando librerías de Python como pandas, numpy, pyodbc u otras.
- Estandarizar y validar la calidad de los datos (tipos, duplicados, integridad de campos).
- Documentar reglas de negocio aplicadas en las transformaciones para trazabilidad.
- Carga de datos en Google Cloud Platform (GCP)
- Diseñar pipelines para subir los datasets transformados a Google Cloud Storage (GCS).
- Automatizar la carga de datos a BigQuery, asegurando que los modelos y esquemas estén optimizados para consultas analíticas.
- Monitorear y optimizar el rendimiento de los procesos de carga, aplicando best practices de particionamiento y clustering en BigQuery.
- Optimización y soporte
- Desarrollar scripts reutilizables y escalables para futuros procesos de extracción/carga.
- Coordinar con áreas de negocio para entender requerimientos de información y traducirlos en flujos de datos.
- Monitorear la calidad de los datos cargados y resolver incidencias en los procesos ETL.
MODALIDAD Y DURACIÓN:
- Modalidad híbrida (3 días presencial en Lima, 2 remotos) por 3 meses.
- Contrato a tiempo completo.
NIVEL ACADÉMICO:
- Profesional titulado en Ingeniería de Sistemas, Informática, Software o carreras afines
EXPERIENCIA PROFESIONAL:
- Experiencia: Mínimo 4 años en roles de Integración de Datos, ETL o Análisis de Datos. Se valora experiencia en empresas industriales o de consumo masivo.
- Conocimientos técnicos: Sólidos en Python (scripting para ETL y automatización de datos), SQL avanzado (bases de datos relacionales y GoogleSQL) y herramientas de Google Cloud Platform: especialmente BigQuery, Cloud Storage y Dataflow/Data Fusion.
- SAP: Experiencia práctica con SAP R/3 o S/4HANA. Idealmente conocimiento de SAP Data Services u otras herramientas de extracción y carga de SAP.
COMPETENCIAS:
- Liderazgo técnico
- Comunicación efectiva
- Capacidad de Análisis
- Proactivo
- Trabajo en equipo
- Compromiso
- Orientado a los objetivos