Treball Data Engineer Shell

Estás son las últimas ofertas de trabajo de Data Engineer Shell encontradas.

 treballs

  • 28/07/2025

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    Desde CMV Consultores buscamos un Cloud Data Engineer con 3-4 años de experiencia para proyecto en el sector banca, en modalidad 100% remoto (residencia en España, preferiblemente Madrid). Funciones Desarrollo de APIs en AWS (API Gateway, Lambda en Python) Modelado de datos y dashboards en Amazon Quicksight Automatización con GitHub Actions Documentación de arquitecturas en AWS Propuestas técnicas para casos de uso en IA/ML Tecnologías clave Python, SQL, Shell Scripting (bloqueantes) AWS (Lambda, S3, EMR, Glue, CloudWatch, Aurora, Quicksight) GitHub, OpenAPI, API Manager Machine Learning (nivel intermedio) Condiciones: Proyecto remoto Si cumples con los requisitos y te apasiona el mundo del dato en entornos cloud, ¡te estamos esperando!

  • 11/07/2025

    Andalusia

    Ubicación: Preferencia por ciudades con sede (flexible para candidatos deslocalizados si el perfil encaja) Modalidad: A convenir Tarifa: Acorde a experiencia y conocimientos del perfil Nivel de inglés: B2 Descripción del puesto Buscamos un profesional para participar en la creación de un nuevo dashboard en Kibana, incluyendo tareas de preprocesamiento Big Data en el Data Lake (SCIB). Formará parte de un equipo de trabajo especializado en Market Risk, colaborando tanto en el desarrollo de procesos en tecnologías Big Data (Spark, Scala) como en tareas comunes del área. El rol implica trabajar con tecnologías del ecosistema ELK (Kibana, Elasticsearch, Logstash), procesamiento de datos en entornos distribuidos (Hadoop, Spark), y contribuir a la construcción de soluciones analíticas que ayuden a la gestión de riesgos del mercado. Responsabilidades Desarrollo y mantenimiento de procesos de ingesta y transformación de datos en Spark (Scala). Diseño y construcción de dashboards en Kibana para la visualización de datos de Market Risk. Preprocesamiento y gestión de datos en el Data Lake (SCIB). Colaboración con el equipo para tareas comunes del área de Big Data. Aplicación de buenas prácticas de desarrollo y documentación de procesos. Requisitos Obligatorios: Experiencia previa en proyectos tecnológicos, preferentemente de datos o analítica. Conocimiento técnico y experiencia en Scala y Apache Spark. Conocimiento de Hadoop. Manejo de sentencias SQL. Conocimiento básico de Shell scripting. Conocimiento básico de Kibana y del entorno ELK (Elasticsearch, Logstash, Kibana). Requisitos Deseables (no obligatorios) Conocimiento técnico de Azure Databricks. Experiencia previa en sector bancario o en Riesgos de Mercado. Conocimiento de Airflow como gestor de workflows/pipelines. Condiciones Ubicación: Preferencia por ciudades donde tengamos sedes; posibilidad de valorar perfiles deslocalizados. Tarifa: Se definirá según experiencia y conocimientos. Inglés: Nivel B2 requerido.

Cerca avançada