Data Engineer Senior
1 VacantesSistemas en Miraflores, Lima
- Salario: A convenir
- Categoría: Informática / Telecomunicaciones
- Subcategoría Sistemas
- Localidad: Miraflores
- Activo desde: 01/06/2025
- Jornada: Tiempo completo
- Tipo de Contrato: Contrato por Necesidades del Mercado
- Cantidad de Vacantes: 1
- Años de Experiencia: 1
- Disponibilidad de viajar: No
- Disponibilidad de cambio de residencia: No
Somos Ransa, operador logístico end to end líder de Latinoamérica con presencia en 12 países y 95 sedes en la región. Contamos con más de 8,500 colaboradores y más de 85 años de experiencia brindando soluciones eficientes, ágiles y adaptables a nuestros clientes, convirtiendo la logística en su ventaja competitiva.
Somos Ransa, operador logístico end to end líder de Latinoamérica con presencia en 12 países y 95 sedes en la región. Contamos con más de 8,500 colaboradores y más de 85 años de experiencia brindando soluciones eficientes, ágiles y adaptables a nuestros clientes, convirtiendo la logística en su ventaja competitiva. 🚀¡Te invitamos a formar parte de nuestro equipo como: DATA ENGINEER SENIOR!🌟
¿Qué estamos buscando?
- Profesional de las carreras de ingeniería de sistemas, informática, ciencias de la computación o afines.
- Conocimiento avanzado en GCP.
- Deseable experiencai previa en AWS y Azure.
- Dominio de Python (incluyendo Google Cloud Client Libraries y Apache Beam) y SQL avanzado, especialmente aplicado a BigQuery.
- Experiencia en el uso de Google Cloud Storage (GCS) como data lake: organización de buckets, políticas de ciclo de vida, seguridad y formatos de archivo como Parquet, Avro o ORC.
- Manejo avanzado de Google BigQuery: diseño de esquemas (tablas particionadas/clusterizadas), optimización de consultas, cargas batch y en streaming, gestión de costos y rendimiento.
- Experiencia en el desarrollo de pipelines de procesamiento de datos (batch y streaming) usando Dataflow;conocimientos en Dataproc, Cloud Functions, Cloud Run y Pub/Sub (deseable).
- Orquestación de flujos de trabajo con Cloud Composer (Airflow).
- Conocimientos en bases de datos en GCP como Cloud SQL, Firestore o Bigtable.
- Gestión de accesos y seguridad en GCP mediante IAM, VPC Service Controls, y encriptación (CMEK).
- Desarrollo y exposición de APIs RESTful utilizando herramientas como Apigee, API Gateway, Cloud Run o GKE.
- Experiencia en monitoreo y logging con Cloud Monitoring y Cloud Logging.
- Deseable conocimiento de infraestructura como código con Terraform o Deployment Manager.
- Dominio de Git para control de versiones y trabajo colaborativo.
- Comprensión del ciclo de vida de los datos y principios de DataOps.
- Diseño y modelado de datos optimizados para BigQuery.
- Implementación de gobierno de datos en GCP utilizando herramientas como Dataplex y Data Catalog.
- Conocimientos en calidad de datos, gestión de metadatos, y Master Data Management (MDM).
- Experiencia en metodologías ágiles (Scrum, Kanban) y despliegue continuo (CI/CD) usando Cloud Build, Jenkins o integraciones con Composer/Dataflow.
- Alta capacidad de resolución de problemas y diagnóstico con herramientas nativas de GCP.
- Enfoque en la optimización de costos y rendimiento en BigQuery, Dataflow y GCS.
- Buen nivel de documentación técnica y funcional.
Responsabilidades principales:
- Diseñar, implementar y optimizar la arquitectura de datos de la compañía (data lake y data warehouse).
- Desarrollar y mantener pipelines de ingesta, integración y transformación de datos desde múltiples fuentes (APIs, bases de datos, archivos, streaming).
- Modelar, almacenar y disponibilizar datos de forma eficiente para su análisis, incluyendo el diseño de datamarts y capas semánticas.
- Aplicar políticas de gobierno y calidad de datos: gestión de metadatos, catálogo de datos, validaciones y reglas de calidad.
- Participar en la implementación y evolución de estrategias de Master Data Management (MDM) junto a las áreas de negocio.
- Desarrollar APIs seguras para exponer datos y brindar soporte técnico a equipos de analítica y ciencia de datos.
- Investigar nuevas herramientas y tecnologías que potencien el procesamiento y gestión de grandes volúmenes de datos.
- Sueldo acorde al mercado.
- Ingreso a planilla con todos los beneficios de ley.
- Buen clima laboral.
- Posibilidad de realizar una línea de carrera en la empresa.
- EPS