685 - Ssr/Sr Data Engineer (Python-Azure-Databricks-Spark)

Detalles de la oferta

Sumamos un/a Ingeniero/a Principal de Datos con sólida experiencia en programación en Python y habilidades para construir pipelines de procesamiento de datos a gran escala utilizando tecnologías como Databricks, Spark, Python y PostgreSQL.
Es fundamental contar con excelentes habilidades de comunicación y un enfoque proactivo para resolver desafíos.
La experiencia en las industrias de Bienes de Consumo (CPG) o Retail será una ventaja, aunque no es un requisito.
Responsabilidades: Experiencia en Programación: Diseñar, codificar y mantener pipelines de procesamiento de datos a gran escala utilizando Databricks, Spark, Python y SQL.
Procesamiento de Datos: Arquitectar y optimizar pipelines de datos para garantizar alta eficiencia, escalabilidad y confiabilidad.
Gestión de Plataformas en la Nube: Desarrollar e implementar soluciones de datos en plataformas en la nube, preferentemente Azure.
Aseguramiento de la Calidad: Implementar procesos para garantizar la precisión, consistencia y confiabilidad de los datos.
Integración de Datos: Integrar datos de diversas fuentes y formatos en los pipelines de procesamiento.
Gobernanza de Datos: Colaborar con equipos de gobernanza de datos para establecer y aplicar mejores prácticas y estándares de calidad.
Requisitos: Habilidades de Programación: Dominio avanzado de Python.
Experiencia en Databricks: Mínimo 2 años (preferiblemente más de 4 años).
Conocimientos en Apache Spark: Experiencia en el uso de Spark para un procesamiento eficiente de datos.
Conocimientos en SQL: Habilidades avanzadas en SQL para análisis y transformaciones de datos.
Experiencia en la Nube: Conocimiento sólido de al menos una plataforma en la nube, preferiblemente Azure.
Comunicación: Capacidad para comunicarse de manera efectiva y cuestionar suposiciones para proponer soluciones.
Conocimientos de la Industria: Experiencia en las industrias de CPG o Retail es una ventaja, pero no un requisito.
Habilidades Clave: Programación en Python y SQL.
Construcción y optimización de pipelines con Databricks y Spark.
Sólida comprensión de plataformas en la nube, especialmente Azure.
Mejores prácticas en aseguramiento de la calidad y gobernanza de datos.
Habilidades/Experiencia Preferidas: Familiaridad con otras tecnologías centradas en datos como Data Warehousing, ETL, Analítica y Reporting.
Experiencia previa trabajando con equipos colaborativos, especialmente equipos de Ciencia de Datos e Ingeniería.
Experiencia en las industrias de Bienes de Consumo (CPG) o Retail.
Título universitario o de posgrado en informática, ingeniería de datos o campos relacionados.
Entre 4 y 6 años de experiencia en roles de ingeniería de datos, enfocándose en pipelines de procesamiento de datos a gran escala.
¡Postúlate ahora y únete a la querida Darwoft!
****** ¿Tienes consultas?
Sigue al reclutador: LinkedIn: Hernán Vietto


Salario Nominal: A convenir

Requisitos

Analista Técnico Funcional - Mix (On Site &

**¿Qué hace la compañía?** **Importante Banco Nacional de capitales privados con la mayor red de sucursales en Argentina.** Brindan distintos servicios fina...


Aliantec - Córdoba

Publicado a month ago

Scrum Master - Mix (On Site & Remoto) - 1395

**¿Qué hace la compañía?** **Importante Grupo Bancario,** **que se ubica entre las 10 principales entidades del Sistema Financiero Argentino** con más de 18...


Aliantec - Córdoba

Publicado a month ago

Data Visualization Specialist

Are you someone who enjoys transforming raw data into meaningful insights that drive decision-making? Do you have a passion for design and storytelling? If s...


Data Privacy - Córdoba

Publicado a month ago

Analista De Soporte Tecnico/Soporte De Campo/Mesa De Ayuda - Córdoba Capital

Intertron Human Capital, una empresa del Grupo Intertron, está ampliando su área de IT a través de la incorporación de Analistas de Soporte Técnico y persona...


Grupo Intertron - Córdoba

Publicado a month ago

Built at: 2024-12-23T02:43:34.363Z