About the job Ingeniero de IA — Sistemas de Voz en Producción
Serás responsable de la capa de IA de un agente de voz en tiempo real en producción — incluyendo el motor de conversación, el pipeline basado en eventos y los workflows del agente.
Nivel: Mid–Senior
Etapa: Producto en fase temprana (con clientes reales)
Modalidad: Mayormente remoto
Stack: OpenAI Realtime API · Python · AWS
Arquitectura: Basada en eventos
Idiomas: Inglés (obligatorio) · Español (comunicación interna)
SOBRE EL ROL
No buscamos un perfil tradicional de IA.
Este rol está enfocado en construir sistemas en producción, NO en entrenar modelos, hacer experimentos o analizar datos.
Trabajarás:
- De forma autónoma en modalidad asíncrona, con sincronización semanal
-
Siendo responsable de tu servicio de IA de extremo a extremo:
código, pruebas, CI/CD y despliegue - Participando en decisiones de arquitectura (alineadas con el equipo antes de implementar)
- Construyendo para usuarios reales con estándares altos desde el inicio
Aunque es un producto en etapa temprana, los estándares no lo son:
se espera código limpio, documentación sólida y pruebas como práctica habitual.
El inglés es obligatorio para código, documentación y comunicación.
NO ES UN PERFIL ADECUADO SI
Tu experiencia principal está en:
- Ciencia de datos (modelos, estadística, experimentos)
- Ingeniería de ML (pipelines de entrenamiento, despliegue de modelos)
- Prompt engineering únicamente (herramientas no-code)
- Investigación en IA (papers, teoría, benchmarks)
REQUISITO OBLIGATORIO (NO NEGOCIABLE)
Debes haber llevado a producción un producto real de IA de voz o audio en tiempo real.
Debes tener experiencia directa con la OpenAI Realtime API, incluyendo:
- Ciclo de vida de sesiones
- Flujo de eventos
- Manejo de fallos
Si esto es nuevo para ti, no apliques.
EL SISTEMA QUE LIDERARÁS
Un agente de voz con IA en producción construido sobre OpenAI Realtime API:
- Arquitectura basada en eventos (trigger pipeline respuesta)
- Conversación en tiempo real + clasificación de intención + captura de datos estructurados
- Orquestación de workflows con Relevance AI
Serás responsable de ambas capas:
- Integración de IA
- Arquitectura de workflows y prompting
Tú construyes, tú eres dueño, tú despliegas. No hay hand-offs.
RESPONSABILIDADES
1. Integración con OpenAI Realtime API
- Gestionar el ciclo completo de sesiones (creación, tokens, eventos, cierre)
- Manejar fallos (sesiones caídas, errores de secuencia, timeouts, reconexión)
-
Optimizar continuamente:
- Calidad de voz
- Latencia
- Naturalidad de la conversación
2. Arquitectura e Infraestructura (Event-driven)
- Diseñar y mantener el pipeline basado en eventos
- Garantizar confiabilidad, observabilidad y manejo robusto de errores
-
Ser responsable del stack completo:
- CI/CD
- Infraestructura
- Despliegues en múltiples entornos
3. Workflows de Agentes y Prompting
-
Diseñar workflows multi-paso en Relevance AI:
- Clasificación
- Enrutamiento
- Uso de herramientas
- Captura de datos
- Construir prompts, function calling y lógica condicional
- Crear nuevos workflows desde cero
- Documentar y proponer arquitecturas antes de implementar
4. Calidad, Testing y Documentación
- Escribir y mantener pruebas con pytest (obligatorio)
-
Aplicar estándares de calidad:
- Linting con ruff
- Controles en CI antes de cada merge
-
Monitorear:
- Calidad de conversaciones
- Confiabilidad de eventos
- Costos de API
- Documentar todo en inglés
- Proponer cambios relevantes y alinearlos antes de ejecutar
REQUISITOS
Obligatorios (no negociables)
- Experiencia en producción con OpenAI Realtime API
- Python sólido (async/await, arquitectura limpia, pytest)
- Diseño de sistemas basados en eventos
- Function calling de LLM en producción
- Diseño de workflows de agentes (multi-paso, con estado)
-
AWS:
- Lambda
- API Gateway
- DynamoDB
- SAM
- SSM
- Gestión completa de CI/CD (GitHub Actions, pipelines, despliegues)
- Inglés fluido (oral y escrito)
- Español (comunicación interna)
Deseable
- Experiencia con Relevance AI o similares
- Fundamentos de WebRTC (SDP, ICE, signaling)
- FastAPI, Pydantic v2, httpx, Mangum
- Docker, ruff, freezegun
- Experiencia en startups
STACK TECNOLÓGICO
Core:
OpenAI Realtime API · Python 3.11 · FastAPI · httpx · Pydantic v2 · Mangum
Infraestructura:
AWS Lambda · API Gateway · DynamoDB · SSM · SAM · S3
Herramientas:
GitHub Actions · Docker · pytest · ruff · Relevance AI
FORMA DE TRABAJO
- Trabajo asíncrono con sincronización semanal
- Alta autonomía y responsabilidad
- Alineación antes de implementar
- Ejecución rápida después de acordar
Por favor envía tu CV con el link de tus repositorios y tu expectativa salarial al correo admin@worldengineeringcorp.com
Correos sin estos datos no se tendrán en cuenta...