¿Qué harás en este rol?
Como parte fundamental de nuestro equipo, tendrás la oportunidad de:
● Diseño y Desarrollo de Pipelines: Colaborar en el diseño y la implementación de pipelines de datos eficientes para mover información entre diferentes sistemas.
● Procesos ETL: Participar activamente en la creación y optimización de procesos de Extracción, Transformación y Carga (ETL) para preparar datos y vaciarlos en nuestro Data Lake.
● Gestión de Bases de Datos: Apoyar en la gestión y optimización de bases de datos, asegurando la calidad y la disponibilidad de los datos.
● Colaboración con Equipos: Trabajar de cerca con ingenieros de datos senior, desarrolladores y otros miembros del equipo para entender las necesidades de datos y asegurar una integración fluida.
● Implementación de modelos en producción: diseña modelos de machine learning y language learning models para el procesamiento de millones de puntos de datos y lenguaje natural.
● Aprendizaje Continuo: Explorar y aplicar nuevas tecnologías y herramientas en el ecosistema de datos.
¿Qué buscamos en ti?
● Interés en Data Science: Ganas de aprender y crecer en el campo de la ingeniería de datos, con una curiosidad natural por cómo los datos se mueven y se transforman.
● Conocimientos Básicos: Familiaridad con conceptos de bases de datos relacionales (como PostgreSQL) y nociones de programación (preferiblemente Python o Node.js).
● Herramientas y Conceptos: Conocimiento básico de Git y Python. Cualquier exposición a conceptos de CI/CD o Docker es un plus, pero no es excluyente.
● Habilidad para el Aprendizaje: Capacidad para asimilar rápidamente nuevos conceptos técnicos y aplicar lo aprendido en proyectos prácticos.
● Trabajo en Equipo: Habilidad para colaborar eficazmente con otros miembros del equipo y contribuir a un ambiente positivo.
● Inglés: Nivel intermedio de inglés, tanto escrito como hablado.
Cargando ...
100% Complete
