DATOS DE CONTACTO
DUMAS SPA
Actividades de consultoría de informática y de gestión de instalaciones informáticas
Objetivo del cargo: Mantener y optimizar las plataforma central de datos de la empresa, facilitando la incorporación de nuevas fuentes y permitiendo el procesamiento y consumo eficiente de la información. Funciones del cargo: Desarrollar, construir, probar y mantener código de pipeline de datos, alineadas con estándares, metodologías y buenas prácticas específicas. Crear y mantener soluciones óptimas para el flujo de datos, ingestando data desde diversas fuentes hacia el data lake de la empresa. Todo lo anterior utilizando tecnologías como Azure Data Factory, Databricks y Airflow. Identificar formas de mejorar la confiabilidad, eficiencia y calidad de los datos. Llevar a cabo investigaciones para responder preguntas técnicas y de negocio. Usar grandes conjuntos de datos para abordar problemas de negocio. Trabajar e interactuar con usuarios y clientes de todo el mundo para entender sus necesidades y plantear soluciones que aborden de manera efectiva los requerimientos del negocio. Proponer y liderar iniciativas de mejora continua en la gestión de datos. Certificaciones o cursos: Plataforma Microsoft Azure, preferencia Data Factory y/o Databricks. Python. Spark Deseable: Conocimiento en CI/CD (Git, Azure DevOps, Jira, u otro) Gobernanza y seguridad de datos. Servicios adicionales de Azure. Habilidades y competencias: Experiencia en Microsoft Azure, Azure Data Factory y Databricks, con capacidad para diseñar y optimizar procesos ETL/ELT y arquitecturas de datos. Conocimiento en control de versiones mediante Git y metodologías ágiles, idealmente Scrum. Destaca por su capacidad analítica, resolución de problemas, autogestión, organización y cumplimiento de plazos, además de mantener una orientación colaborativa, aprendizaje continuo y propuesta de mejoras tecnológicas.