¿Cuáles son los requisitos?
- Profesional técnico titulado o bachiller universitario de las carreras de Computación, Sistemas, Industrial o afines.
- Experiencia trabajando en proyectos Big Data bajo Scrum (Team Member)
- Experiencia en modelamiento, análisis e ingesta de datos.
- Experiencia en implementación de proyectos con lenguajes de programación Java, Python, Pyspark, Scala, comandos HDFS
- Experiencia en proyectos con procesos de ingesta datos, transformación y explotación de datos en big data de preferencia en plataforma cloud computing AWS.
- Deseado conocimiento en GCP (deseado).
- Conocimiento en buenas prácticas de desarrollo de software
¿Cuál será tu reto?
- Participar en el proceso de Refinamiento y Staffing de los proyectos solicitados a través de la SDA.
- Realizar el análisis funcional de fuentes y procesamientos de tipología básica e intermedia (con apoyo de perfiles mas avanzados, Scrum masters, o líder directo) para su ingesta en la plataforma informacional del banco.
- Proponer modelamiento básico de las tablas en su scope de análisis y validarlo con la disciplina Data Modelling.
- Realizar el desarrollo de ingestas y procesamientos básicos, de tablas locales y globales de baja complejidad.
- Implementar reglas MVP de los componentes técnicos, y reglas expertas.
- Promover el uso y reúso de tablas del modelo único de datos con un análisis básico de las mismas y aseguramiento de la necesidad vs el modelo de la tabla.