No more applications are being accepted for this job
- Diseñar, crear y mantener canalizaciones de datos por lotes o en tiempo real en producción.
- Mantener y optimizar la infraestructura de datos necesaria para una extracción, transformación y carga precisas de datos de una amplia variedad de fuentes de datos.
- Construir y mantener pipelines.
- Desarrollar procesos ETL (extracción, transformación, carga) para ayudar a extraer y manipular datos de múltiples fuentes.
- Ayuda a diseñar y mantener una capa semántica.
- Automatizar los flujos de trabajo de datos, como la ingesta, agregación y procesamiento ETL de datos.
- Preparar datos sin procesar en almacenes de datos en un conjunto de datos consumibles para partes interesadas tanto técnicas como no técnicas.
- Asociarse con científicos y analistas de datos para implementar modelos de datos y aprendizaje automático en producción.
- Garantizar la precisión, integridad, privacidad, seguridad y cumplimiento de los datos a través de procedimientos de control de calidad.
- Monitorear el desempeño de los sistemas de datos e implementar estrategias de optimización.
- Aprovechar los controles de datos para mantener la privacidad, la seguridad, el cumplimiento y la calidad de los datos para las áreas de propiedad asignadas.
- Licenciatura/Maestría en Ciencias de la Computación, Sistemas de Información o un campo relacionado.
- Conocimiento en conceptos de DW/DL, data marts, modelado de datos, ETL/ELT, calidad/administración de datos, sistemas distribuidos y gestión de metadatos.
- Mínimo 7 años de experiencia en ingeniería de datos, idealmente en entornos de nube y buen conocimiento de microservicios y API.
- Amplia experiencia en el diseño y construcción de modelos ETL y flujos de trabajo de datos.
- Conocimiento práctico en el diseño e implementación de una capa semántica de BI.
- Base sólida en estructuras de datos, algoritmos y diseño de software.
- Habilidades avanzadas de SQL y experiencia con bases de datos relacionales y diseño de bases de datos.
- Experiencia trabajando con BigQuery Cloud Data Warehouse y herramientas de big data como Databricks,Hadoop, Spark, Kafla etc.
- Conocimiento práctico en lenguajes orientados a objetos (por ejemplo, Python, Java).
- Gran dominio de las herramientas de gestión de flujo de trabajo y canalización de datos (p. ej., Airflow).
- Fuertes habilidades organizativas y de gestión de proyectos.
- Excelentes habilidades de resolución de problemas, comunicación y organización.
- Capacidad demostrada para trabajar de forma independiente y en equipo.
- Excelentes relaciones interpersonales
- Pensamiento críticoBenefits
- Licenciatura/Maestría en Ciencias de la Computación, Sistemas de Información o un campo relacionado.
- Conocimiento en conceptos de DW/DL, data marts, modelado de datos, ETL/ELT, calidad/administración de datos, sistemas distribuidos y gestión de metadatos.
- Mínimo 7 años de experiencia en ingeniería de datos, idealmente en entornos de nube y buen conocimiento de microservicios y API.
- Amplia experiencia en el diseño y construcción de modelos ETL y flujos de trabajo de datos.
- Conocimiento práctico en el diseño e implementación de una capa semántica de BI.
- Base sólida en estructuras de datos, algoritmos y diseño de software.
- Habilidades avanzadas de SQL y experiencia con bases de datos relacionales y diseño de bases de datos.
- Experiencia trabajando con BigQuery Cloud Data Warehouse y herramientas de big data como Databricks,Hadoop, Spark, Kafla etc.
- Conocimiento práctico en lenguajes orientados a objetos (por ejemplo, Python, Java).
- Gran dominio de las herramientas de gestión de flujo de trabajo y canalización de datos (p. ej., Airflow).
- Fuertes habilidades organizativas y de gestión de proyectos.
- Excelentes habilidades de resolución de problemas, comunicación y organización.
- Capacidad demostrada para trabajar de forma independiente y en equipo.