Diseñar, desplegar y operar plataformas de datos escalables y seguras (Data Warehouse/ Data Lake/ Lakehouse), con pipelines batch y streaming, orquestación, repositorio de código y gestión de secretos y ejeccuón de contenedores.
Tareas
1. Arquitectura y construcción de infraestructura de datos
- Definir y desplegar Data Lake / Data Warehouse / Lakehouse (por ejemplo: S3, Redshift/BigQuery/ClickHouse)
- Modelado de datos
2. Más allá del ETL/DAG
- Entender y configurar los sistemas de ejecucción detrás de Airflow
- Integración con Data Lake/DWH, orquestador, repositorio Git, gestión de secretos (AWS Secrets Manager)
3. Despliegue de infraestructura (DevOps)
4. Contenedores y ejeccución
- Dockerización de jobs/algoritmos (Docker Executor o KubernetesExecutor con Airflow)
Requisitos
- Experiencia trabajando con DWH y modelado de datos
- Experiencia con proyectos completos de analítica de datos
- CI/CD
Beneficios
- Modalidad de trabajo híbrido
- Planes de carrera y formaciones en habilidades técnicas y blandas
- Sistema de retribución flexible (tickets restaurante y transporte)
- Horas semanales dedicadas al aprendizaje y discusión de tecnologías innovadoras
- Posibilidad de formar parte a una starup innovadora de ciencias de datos con proyectos increibles en marcha
- Actividades extralaborales: paintball, afterworks, lase tag, voley playa y mucho más