Semi senior Data Engineer (2 vacantes) Técnicos en operaciones de tecnología de la información y las comunicaciones

DATOS DE CONTACTO

Empresa:
23people
Actividad económica:
Otras actividades de tecnología de la información y de servicios informáticos
Descripción de la Empresa:
Somos facilitadores tecnológicos y de talento confiables para empresas que buscan evolucionar sus productos y servicios digitales. Trabajamos con grandes empresas tales como Equifax, Sura y BCI, tanto en Chile como en LatAm, Canadá y Estados Unidos.

DESCRIPCIÓN

Habilidades Requidas para el cargo: - Cloud: Airflow, Cloud Composer, Glue, Lambda u otros. - Lenguajes de Programación (al menos manejar uno nivel usuario intermedio): - Python - SQL/BigQuery - Experiencia en análisis y analitica. - Looker Studio / PowerBI / Tableau / otros. - Conocimiento sobre el manejo de datos: **Importante** - Conocimiento sobre los conceptos de ambientes de datos. - Conocimiento sobre los conceptos de calidad de datos. - Conocimiento de modelado de procesos y flujos de datos Deseables - Conocimientos en las tecnologías: Spark - DataProc / DataFlow - Experiencia en procesos de manejo de datos: - Procesamiento en lotes - Procesamientos distribuidos. ¿Qué harás en tu día a día? - QA de Migración a la Nube: Participar en la ejecución de pruebas para la migración de datos desde bases de datos on-premise (MySQL/Oracle) hacia BigQuery/GCP. - Validación Multinivel: Ejecutar y desarrollar casos de prueba que validen tres niveles críticos: Integridad del dato crudo (Source vs. Target). - Correcta aplicación de la lógica de transformación ELT. - Cumplimiento de las reglas de negocio definidas en la nueva arquitectura. - QA de Procesos Analíticos: Colaborar en la validación de resultados de procesos posteriores a la carga, como el cálculo de scores y segmentaciones, asegurando la coherencia de los datos con los resultados esperados de negocio. - Automatización de Pruebas: Evolucionar desde validaciones manuales hacia la automatización. Desarrollar scripts en Python para automatizar comparaciones de datos y aprender a crear/mantener DAGs en Apache Airflow para pipelines de validación de calidad de datos. - Monitoreo y Reportería: Utilizar Looker Studio para crear y mantener dashboards de control de calidad de datos que permitan visualizar discrepancias, métricas de salud del dato y el progreso de la migración para los stakeholders.

Metropolitana, Providencia
14/01/2026  -  04/02/2026
1.960.001  -  2.110.000
Jornada Completa

REQUISITOS SOLICITADOS

Nivel educacional:
Experiencia:
2 años

CARACTERÍSTICAS

Tipo de contrato:
Contrato indefinido
Nivel de Cargo ofrecido:
Profesional

Origen de la Oferta:
WEB
Oferta de tipo práctica profesional:

Apto para los siguientes grupos de empleo:
Personas en situación de discapacidad