Treball Data Engineer Hadoop

Estás son las últimas ofertas de trabajo de Data Engineer Hadoop encontradas.

 treballs

  • 19/08/2025

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    ¡Seguimos buscando talento...y nos encantaría que te unieras a nuestro equipo! Para que nos conozcas algo mejor, UST es una multinacional norteamericana certificada como Top Employer y Great Place to Work con más de 35.000 empleados a nivel global y con presencia en más de 35 países. Somos líderes en servicios de tecnología digital y proporcionamos soluciones tecnológicas de gran alcance a grandes compañías. ¿Qué buscamos? Para nuestro equipo buscamos un Data Engineer con al menos 3 años de experiencia con foco en la creación de pipelines de datos y almacenamiento para trabajar con uno de nuestros clientes del sector bancario ¿Cuáles serán tus funciones? Diseñar y desarrollar pipelines de datos eficientes y escalables para integrar y transformar grandes volúmenes de información de diversas fuentes. Gestionar y optimizar la infraestructura de datos garantizando su seguridad, rendimiento y escalabilidad. Colaborar con los equipos para facilitar el acceso a los datos, desarrollando APIs y asegurando que la calidad de los datos sea adecuada para su explotación. Realizar análisis de rendimiento y optimización de las consultas a las bases de datos, minimizando tiempos de respuesta y costos asociados al procesamiento. Implementar procesos de automatización para la integración continua de datos de diversas fuentes. Desarrollar e implementar flujos de trabajo ETL (Extract, Transform, Load) y procesos ELT según las necesidades del negocio. Supervisar y resolver problemas en los sistemas de procesamiento de datos, manteniendo la continuidad operativa. ¿Qué esperamos de ti? Licenciatura en Informática, Ingeniería de Sistemas, Matemáticas o carreras afines. Al menos 3 años de experiencia como Data Engineer o en un rol similar, con foco en la creación de pipelines de datos y almacenamiento. Experiencia en Big Data: conocimiento profundo de tecnologías como Hadoop, Spark, Hive y Kafka. Dominio avanzado de SQL para la gestión y optimización de bases de datos. Sólidos conocimientos de programación en lenguajes como Java o Scala para manipulación de datos y desarrollo de scripts. Experiencia con plataformas Cloudera en la nube. Experiencia en la creación de pipelines de datos con herramientas de automatización y orquestación con Oozie. Familiaridad con herramientas de versionado de código y CI/CD (Git, Jenkins). Familiaridad con herramientas de visualización y análisis de datos (como Tableau o Microstrategy), aunque no esencial. ¿Qué te ofrecemos? 23 días laborables de vacaciones y el 24 y 31 de diciembre. Numerosos beneficios sociales (seguro médico, ayuda al teletrabajo, seguro de vida y seguro de accidentes). Programa de Retribución Flexible (tarjeta comida, cheques guardería, tarjeta transporte, clases de inglés online, seguro médico para tu familia...). Acceso gratuito a varias plataformas de formación. Estabilidad y carrera profesional. Tenemos implantado un plan de compensación de referencias internas. Posibilidad de elección de percibir tu salario en 12 o 14 pagas. Medidas de conciliación (horario flexible, teletrabajo, asesoramiento de especialistas (psicólogo, nutricionista, entrenador personal), jornada intensiva los viernes y en verano según proyecto). Plataforma UST Club descuentos y descuentos en gimnasios. Si quieres conocer más, no dudes en inscribirte y nos pondremos en contacto contigo para ampliarte información de la posición ¡Te estamos esperando! En UST nos comprometemos con la igualdad de oportunidades en nuestros procesos de selección y no realizamos ningún tipo de discriminación por razón de raza, género, discapacidad, edad, religión, orientación sexual o nacionalidad. Estamos comprometidos con la discapacidad y apostamos por la incorporación de personas con certificado de discapacidad.

  • 11/07/2025

    Andalusia

    Ubicación: Preferencia por ciudades con sede (flexible para candidatos deslocalizados si el perfil encaja) Modalidad: A convenir Tarifa: Acorde a experiencia y conocimientos del perfil Nivel de inglés: B2 Descripción del puesto Buscamos un profesional para participar en la creación de un nuevo dashboard en Kibana, incluyendo tareas de preprocesamiento Big Data en el Data Lake (SCIB). Formará parte de un equipo de trabajo especializado en Market Risk, colaborando tanto en el desarrollo de procesos en tecnologías Big Data (Spark, Scala) como en tareas comunes del área. El rol implica trabajar con tecnologías del ecosistema ELK (Kibana, Elasticsearch, Logstash), procesamiento de datos en entornos distribuidos (Hadoop, Spark), y contribuir a la construcción de soluciones analíticas que ayuden a la gestión de riesgos del mercado. Responsabilidades Desarrollo y mantenimiento de procesos de ingesta y transformación de datos en Spark (Scala). Diseño y construcción de dashboards en Kibana para la visualización de datos de Market Risk. Preprocesamiento y gestión de datos en el Data Lake (SCIB). Colaboración con el equipo para tareas comunes del área de Big Data. Aplicación de buenas prácticas de desarrollo y documentación de procesos. Requisitos Obligatorios: Experiencia previa en proyectos tecnológicos, preferentemente de datos o analítica. Conocimiento técnico y experiencia en Scala y Apache Spark. Conocimiento de Hadoop. Manejo de sentencias SQL. Conocimiento básico de Shell scripting. Conocimiento básico de Kibana y del entorno ELK (Elasticsearch, Logstash, Kibana). Requisitos Deseables (no obligatorios) Conocimiento técnico de Azure Databricks. Experiencia previa en sector bancario o en Riesgos de Mercado. Conocimiento de Airflow como gestor de workflows/pipelines. Condiciones Ubicación: Preferencia por ciudades donde tengamos sedes; posibilidad de valorar perfiles deslocalizados. Tarifa: Se definirá según experiencia y conocimientos. Inglés: Nivel B2 requerido.

Cerca avançada