Jobs Bigdata
Estás son las últimas ofertas de trabajo de Bigdata encontradas.
job(s)
-
24/03/2026
Andalusia
Trabajarás en un entorno donde Kafka es el core del sistema, con retos reales de alto volumen y arquitectura distribuida. Si buscas especializarte en mensajería y microservicios en serio, este proyecto es para ti. Qué harás Diseñar y desarrollar soluciones basadas en Apache Kafka Implementar y mantener microservicios con Java (8+) y Spring Boot Gestionar flujos de datos en tiempo real y sistemas distribuidos Aplicar buenas prácticas de desarrollo (TDD/BDD) Integrar APIs y servicios en arquitecturas orientadas a eventos Colaborar en entornos ágiles (Scrum) Imprescindible +4 años de experiencia sólida con Apache Kafka (nivel avanzado) +4 años en desarrollo backend Java Experiencia con microservicios y Spring Boot Conocimientos en JPA y testing (TDD o BDD) Experiencia con PostgreSQL u otras BBDD Inglés mínimo B2 Residencia en Málaga o alrededores Deseable Programación reactiva Experiencia con MongoDB u Oracle Conocimientos de API Design (OpenAPI/OAS3) Experiencia en metodologías ágiles (Scrum) Condiciones Contrato: Indefinido Ubicación: Málaga (remoto con posibilidad puntual presencial en zona Málaga Towers) Horario: 09:00 - 18:00 (verano: 08:00 - 15:00) Salario: En función de la experiencia Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Nos comprometemos estar a tu lado en todas las fases del proyecto, para asegurarnos que creces profesionalmente con nosotros, y que tu aportación cuenta. ¿Quieres estar al día con las últimas tecnologías y buscas nuevos desafíos? ¡Envíanos tu CV y nos ponemos en contacto contigo!
-
11/03/2026
Madrid
En Almato Iberia buscamos 4 Data Engineers —perfiles mid (3-5 años de experiencia) y senior (+5 años de experiencia)— para unirse a un equipo que trabajará en un proyecto del sector retail con un nivel alto de inglés. Participarás en la modernización de su plataforma de datos, construcción de pipelines escalables y evolución de procesos ETL dentro de un entorno Databricks Lakehouse. Trabajarás de manera autónoma en dominios específicos (por ejemplo, cupones o datos de clientes) junto con un Product Owner que actuará como enlace con los stakeholders del negocio. Responsabilidades: Diseñar, desarrollar y optimizar pipelines de datos batch y streaming. Modernizar y mejorar los procesos ETL existentes, implementando cargas incrementales y flujos escalables. Modelar datos siguiendo la Arquitectura Medallion (Bronze/Silver/Gold). Gestionar datos en el ecosistema Databricks Lakehouse: Unity Catalog, Delta Lake y estándares del entorno. Asegurar calidad, gobernanza y consistencia de los datos dentro de los dominios asignados. Documentar procesos y preparar una transferencia fluida al equipo interno del cliente. Colaborar con el Product Owner y otros stakeholders para traducir requisitos funcionales en soluciones técnicas. Participar en revisiones de código y seguir buenas prácticas de desarrollo, CI/CD y versionado. Requisitos indispensables: Experiencia demostrada en Databricks: Lakehouse Architecture,Delta Lake, Unity Catalog Sólidos conocimientos de Python (PySpark) Dominio de Spark SQL Experiencia en pipelines batch y streaming Diseño de cargas incrementales y procesos ETL robustos Modelado en arquitectura Medallion Manejo de Git y pipelines CI/CD Capacidad para trabajar de forma autónoma y orientada a resultados Nivel alto de inglés (C1) Requisitos Deseables: Experiencia con servicios de datos de Microsoft Azure Conocimientos en arquitectura de datos Experiencia previa en equipos distribuidos / nearshore alemán (nivel de comunicación) Salario: Dependiendo de la experiencia y la formación técnica ofrecemos un salario a partir de 30 K. Lo que ofrecemos: Contrato de trabajo indefinido. Proyectos innovadores y grandes oportunidades de formación continua y crecimiento profesional (Cursos de Udemy y certificaciones) Trabajo 100% remoto en España con opción a modalidad híbrida en nuestras oficinas ubicadas en el distrito 22@ (Barcelona). Bebidas gratuitas como café, agua, infusiones y zumos, junto con un servicio semanal de fruta de Casa Ametller y una variedad de snacks disponibles en la oficina. Buena conciliación de la vida laboral y familiar con horario flexible. Opción a seguro médico privado. Bonus por recomendación. Beneficios para los empleados en colaboración con el Banco Sabadell. Acceso al programa de beneficios corporativos con descuentos en múltiples marcas reconocidas, establecimientos y ocio.
-
20/02/2026
Andalusia
Desde Grupo Digital, buscamos Consultor SAP DataSphere/SAC con Databricks para incorporación directa en plantilla de nuestro cliente Funciones: Diseñar, implementar y optimizar arquitecturas de datos híbridas que integren entornos SAP DataSphere, SAP Analytics Cloud (SAC) y Databricks. Liderar la definición de modelos de datos corporativos y flujos ETL/ELT que consoliden información procedente de sistemas SAP y fuentes externas. Participar en la construcción y mantenimiento de Data Lakes y Data Warehouses orientados a analítica avanzada, reporting y casos de uso de IA/ML. Asegurar la gobernanza, calidad y trazabilidad del dato, aplicando buenas prácticas de integración y seguridad entre SAP y Databricks. Colaborar con equipos de negocio y analítica para traducir requerimientos funcionales en soluciones técnicas eficientes y escalables. Diseñar y desplegar modelos analíticos y dashboards en SAP Analytics Cloud, garantizando la consistencia y unicidad del dato. Coordinar la integración entre SAP DataSphere y entornos cloud (Azure, AWS o GCP) para facilitar el intercambio y procesamiento de datos. Documentar las soluciones técnicas, estándares de modelado y procesos de despliegue. Actuar como referente técnico en la adopción de nuevas tecnologías y en la definición de arquitecturas data-driven basadas en SAP y Databricks. Imprescindible: Más de 10 años de experiencia en proyectos de Data Engineering o Business Intelligence, con especialización en entornos SAP. Experiencia demostrable en SAP DataSphere (antes SAP Data Warehouse Cloud) y SAP Analytics Cloud (SAC). Conocimientos sólidos en Databricks y ecosistemas cloud (Azure, AWS o GCP). Experiencia en procesos ETL/ELT, modelado de datos, y diseño de arquitecturas de integración entre plataformas SAP y no SAP. Amplio dominio de SQL, Python y frameworks de procesamiento distribuido (Spark, PySpark). Experiencia en integración de fuentes SAP (ECC, S/4HANA) con entornos Data Lake / Lakehouse. Familiaridad con metodologías ágiles y entornos de entrega continua (CI/CD, IaC). Capacidad para liderar técnicamente equipos y proyectos de integración avanzada. Excelentes habilidades comunicativas y orientación a resultados. Valorable certificaciones: SAP Certified Application Associate - Data Warehouse Cloud / DataSphere SAP Certified Application Associate - Analytics Cloud Databricks Certified Data Engineer Professional Azure/AWS/GCP Data Engineer Associate Qué ofrecemos: Ambiente de trabajo internacional, positivo, dinámico y motivado. Modelo de trabajo híbrido (teletrabajo/presencial). Horario flexible. Formación continua: Preparación certificaciones, acceso a Coursera, clases semanales de inglés y alemán... Plan de compensación flexible: seguro médico, tickets restaurante, guardería, ayudas al transporte... Seguro de vida y accidentes. Más de 26 días laborables de vacaciones al año. Fondo social. Servicio gratuito en especialistas (médicos, fisioterapeutas, nutricionistas, psicólogos, abogados...) 100% del salario en caso de baja médica Condiciones: Contrato: Indefinido Ubicación: Andalucía y/o Reus Modalidad de trabajo: Granada, Reus, Sevilla en modalidad híbrida. Resto de ubicaciones en Andalucía en remoto. Horario: jornada completa Salario: hasta 47.000 EUR B/A Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Nos comprometemos estar a tu lado en todas las fases del proyecto, para asegurarnos que creces profesionalmente con nosotros, y que tu aportación cuenta. ¿Quieres estar al día con las últimas tecnologías y buscas nuevos desafíos? ¡Envíanos tu CV y nos ponemos en contacto contigo!
-
17/02/2026
Andalusia
Desde Grupo Digital, buscamos para importante banco de ambito internacional API Developer Desarrollaras Arquitectura de APIs globales, híbrido cloud y capacidades AI-native en una plataforma BaaS de alcance internacional. Serás el owner de la capa API: gobierno, automatización y observabilidad con foco en monetización y LLMOps. Qué harás Liderar el gobierno global de APIs y catálogo (Apigee Hybrid), aplicando estándares OpenAPI 3.1 y AsyncAPI. Gestionar despliegues multi-región y conectividad híbrida (Azure & GCP). Integrar eventos cross-cloud (Kafka ↔ Azure Event Hub) y definir estándares de schema registry. Implementar OAuth 2.1, OIDC y mTLS en el edge de plataforma. Impulsar observabilidad AI-native (Datadog AI, Dynatrace Davis, MAISA AI). Automatizar CI/CD (GitHub Actions), GitOps (ArgoCD) e IaC (Terraform, Packer). Diseñar RAG para descubrimiento semántico de APIs y validación de contratos con LLM. Definir metering, rate limiting y capacidades de monetización API. Colaborar con backend leads para asegurar contratos y formatos consistentes. Automatizar triage de incidentes y playbooks de auto-remediación con agentes AI Requisitos Imprescindibles 3-5 años en ingeniería de plataformas/API en entornos híbridos y multi-región. Experiencia sólida en Apigee Hybrid o similar. Conocimiento avanzado de Kafka y diseño event-driven. Experiencia en observabilidad avanzada (Datadog AI, Dynatrace). Familiaridad con arquitecturas RAG y bases de datos vectoriales. Inglés alto y español fluido (se realizará prueba). Residencia en MALAGA Deseable Experiencia en LLMOps (control de prompts, versionado, validación de modelos). Conocimiento de ISO 20022, Open Banking o entornos regulados. Experiencia con Kong o Azure API Management.