**¿Qué hace la compañía?**
**Es una reconocida compañía de EE.UU que brinda soluciones de protección, ahorro, jubilación y beneficios en el mundo. **Lideran el mercado de seguros y están presentes en más de 40 países de Asia, Latam y EE.UU con más de 49.000 colaboradores que le brindan servicio a más de 90 millones de clientes.
**¿Qué necesitás para ser parte del equipo?**
A nível personal:
- **Excelente trato interpersonal.**:
- **Proactividad.**:
- **Gran capacidad de análisis.**:
- **Autonomía y compromiso.**:
- **Capacidad para trabajar en equipo.**:
- **Excelentes habilidades de comunicación**: Capacidad demostrada para explicar contenido técnico complejo a audiencias tanto técnicas como no técnicas.
- **Habilidades analíticas y de pensamiento crítico.**
A nível técnico:
- **Más de 5 años de experiência en desarrollo de ETL y data warehousing** | Excluyente.
- **Más de 3 años de experiência en el diseño de ETL y lagos de datos en la nube o plataformas basadas en big data** | Excluyente.
- Experiência demostrada en la **implementación y despliegue de centros de datos escalables y de alto rendimiento a escala global.**:
- Experiência demostrada en **tecnologías de bases de datos de última generación y servicios en la nube** como Azure, GCP, Data Bricks o SnowFlake; experiência profunda en tecnologías como Spark (Scala/python/Java), ADLS, Kafka, SQL, Synapse SQL, Cosmos DB, Graph DBs (en Azure use SPARK) | Excluyente.
- Experiência práctica en **implementación de almacenes de datos analíticos** en la plataforma Azure utilizando ADLS/Azure data factory /Data Bricks y Cosmos DB (mongo/graph API) | Excluyente.
- Sólidos conocimientos analíticos relacionados con el **trabajo con conjuntos de datos no estructurados** | Excluyente.
- Sólidos conocimientos de **SQL y habilidades de análisis de datos** para la detección de anomalías y el aseguramiento de la calidad de los datos | Excluyente.
- **Ganas de aprender nuevas tecnologías** sobre la marcha y llevarlas a producción.
- Experiência demostrada en **gestión de la configuración, automatización DevOps.**:
- Experiência de trabajo en **programas empresariales complejos a gran escala, multiequipo y en metodologías de desarrollo ágil.**:
- Experiência en **implementación de soluciones, pruebas de rendimiento y ajuste**; ADLS, base de datos Synapse SQL o gestión de GCP Big Query y GCS y ajuste de rendimiento - Particionamiento / Bucketing | Excluyente.
**¿Qué vas a hacer?**
- **Recopilar, almacenar, procesar y analizar grandes conjuntos de datos** para construir e implementar procesos de extracción, transferencia y carga (ETL).
- **Crear marcos y herramientas** para desarrolladores, diseñar materiales de formación, impartir formación para desarrolladores. Evangelizar nuevas ideas, estándares, mejores prácticas y soluciones con la comunidad de desarrolladores y técnicos.
- **Desarrollar código de calidad** con optimizaciones de rendimiento bien pensadas desde la fase de desarrollo.
- **Ganas de aprender** nuevas tecnologías y estar dispuesto a trabajar en nuevas tecnologías de vanguardia en la nube.
- **Ingerir grandes volúmenes de datos de diversas plataformas** para las necesidades y escribir código ETL de alto rendimiento, fiable y mantenible.
- **Interactuar con analistas de negocio y analistas funcionales** para obtener los requisitos e implementar las soluciones ETL.
- **Proporcionar apoyo técnico** a los equipos de proyecto durante todo el ciclo de vida del proyecto en torno a plataformas tecnológicas, diseño de soluciones, seguridad, depuración, creación de perfiles, ajuste del rendimiento, etc.
**¿Cuál es el desafío de la posición?**
En LATAM Data Hub (LDH), la misión es **construir la próxima generación de data lake house para la compañía** y ayudar a desplegarlo en varios países de LATAM.
Han desarrollado una **plataforma de clase mundial**, nativa de la nube, para permitir la presentación de informes, análisis, canalización de suministro de datos y suministro en tiempo real de los datos a diversos canales digitales y no digitales. La plataforma aprovecha tecnologías propias y de código abierto de vanguardia para crear un sistema altamente configurable que puede adaptarse a las necesidades individuales del mercado rápidamente y a bajo coste.
La plataforma se ejecuta en un entorno en la nube elástico y totalmente en contenedores, y está diseñada para escalar y dar servicio a millones de usuarios.
**¿Con quién trabajarás?**
Formarás parte de un **equipo regional**, participando de proyectos en Brasil, Chile y México.
**¿Cuándo y dónde trabajarás?**
Vas a trabajar en un esquema de **9 a 18 hs. **Si sos de **Buenos Aires será híbrido** con 4 días de home office y 1 día on site en oficinas de Microcentro. En el caso de vivir en **otra provincia el esquema es 100% remoto.**
**¿Qué ofrecen?**
- **Relación de dependencia d