Descripción del empleo:
En Experis nos encontramos en la busqueda de un Data Engineer para sumarse al equipo de importante compañia de inteligencia comercial del mundo ecommerce.
La relacion de dependencia es directa con la empresa y podes trabajar 100% remoto desde cualquier punto del pais.
**Requisitos**:
Graduado, estudiante o persona con experiência en carreras afines a informática, tecnologías de la información e ingeniería en sistemas.
Conocimiento y experiência en ANSI SQL.
Trabajo con bases de datos relacionales.
Familiaridad con tipos de datos no estructurados.
Experiência en la construcción y operacionalización de procesos de Extracción, transformación y carga de datos para datos estructurados y no estructurados (Jsons, Csv, etcétera)
Conocimientos en procesos y transformaciones típicas que son necesarias realizarles a los datos crudos para convertirlas en información útil: data cleansing y data enrichment.
Conocimiento de tecnologías de procesamiento distribuido a gran escala.
Especialmente Apache Spark.
Conocimientos en Git y Github.
Conocimiento y utilización de procesos de integración de datos.
Por ejemplo, Azure Data Factory, AWS Data Pipeline, SSIS, Pentaho Data Integration, Talend Data Integration.
Experiência y predisposición al armado de la documentación pertinente de los procesos: diagramas de flujo de las transformaciones, pipelines de datos y casos de uso.
Buena capacidad comunicativa, especialmente de manera escrita.
Capacidad de trabajar de manera remota, asíncrona y autónoma.
**Funciones principales**:
Realizar tareas de procesamiento de datos a fuentes de datos semi estructuradas.
Generar procesos de control del trackeo de la información que funciona como proceso generador de las fuentes de datos.
Optimización del procesamiento de datos a través de mejores usos de los clusters en un entorno cloud.
Analizar y resolver problemáticas asociadas a la calidad de los datos a través de la unificación de las fuentes de datos primarias.
Integrar diferentes tipos de datos: Información de ítems, seller, categorías en una sola fuente de información consumible.
Trabajar con grandes volúmenes y diversas fuentes de información.
Operacionalización de los diferentes procesamientos a través de Azure Data Factory.
**Conocimientos extra valorados**:
Conocimiento en lenguaje de programación Scala.
Si trabaja en Python también sirve.
Conocimiento en buenas prácticas de desarrollo de software.
No sólo conocimiento en el desarrollo de ETLs
Conocimiento en Apache Hadoop.
Conocimiento en entornos Cloud.
Especialmente en Azure.
Conocimientos en Azure Data Factory.
**Beneficios**:
OSDE grupo familiar
Ajustes por inflacion
Gift Card mensual para supermercado
Clases de inglés o portugues por zoom
Pago mensual de internet
Licencias especiales para personas gestantes, no gestantes y adopciones
Horario flex
Día libre por cumpleaños
Cursos y capacitaciones 100% free
Premio por referidos
After offices
Regalos en fechas especiales