La oferta de trabajo Consultor Big Data - Cloud ya no está disponible
Aquí tienes ofertas de trabajo similares:
-
07/10/2025
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
Elegir Capgemini es elegir la posibilidad de dar forma a tu carrera profesional como desees. Recibirás el apoyo y la inspiración de una comunidad colaborativa de colegas de todo el mundo y podrás reinventar lo que es posible. Únete a nuestro equipo y ayuda a las principales organizaciones del mundo a descubrir el valor de la tecnología y a construir un mundo más sostenible e inclusivo. Nuestro equipo de Data & AI estará encantado de que te unas. Tenemos numerosos proyectos multisectoriales, tanto nacionales como internacionales que te esperan. Con formación y certificaciones, podrás crecer y/o reorientar tu perfil dentro del área del dato. ¿Qué harás en el proyecto? ¿Cuál será tu rol? Como Ingeniero/a de Datos de Azure, serás responsable de ampliar y optimizar las arquitecturas de datos y canalizaciones, así como de optimizar la recopilación y el flujo de datos en todos los equipos funcionales. Al mismo tiempo... Podrás desarrollar proyectos desde cero con la colaboración del equipo. Participarás en el diseño de arquitecturas y toma de decisiones en un entorno constructivo. Desarrollarás proyectos en Cloud Construirás pipelines escalables con diferentes tecnologías. Para sentirte a gusto en la posición, se requiere: Experiencia de entre 3 y 5 años como Data Engineer trabajando con SQL (SMSS), Python (Silver) y Azure (Azure Synapse, Azure DevOps, incluyendo Git, y/o PySpark). Experiencia con bases de datos relacionales y modelado de datos. Experiencia con herramientas de BI como Power BI y conocimientos de procesos ETL. Conocimientos de pruebas unitarias, configuración de pipelines de datos y linaje de datos. Experiencia aplicando soluciones en la nube de Azure como Azure Data Factory, Azure Data Lake Storage y Azure Synapse Analytics. Se valorará positivamente conocimiento de SAS, así como conocimiento de aplicaciones de IA para convertir eficientemente código SAS a la arquitectura objetivo (SQL - PySpark). Habilidades comunicativas para interlocutar con arquitectos/as de datos y el resto del equipo. Nivel fluido de inglés oral y escrito. Proactividad, responsabilidad, buena capacidad de gestión del tiempo, trabajo en equipo. Se valorará positivamente el poseer certificado de discapacidad, en el marco de nuestra política de inclusión y diversidad Valoraremos todas las candidaturas. Contamos con una amplísima oferta formativa, presencial, online de Certificaciones, etc. Aunque no tengas el 100% de los conocimientos valorados ¡nos encantará conocerte! Nuestro compromiso con la inclusión e igualdad de oportunidades hace que tengamos un Plan de Igualdad y un Código Ético que garantizan el desarrollo profesional de la plantilla y la igualdad de oportunidades en su selección dentro de un entorno libre de discriminación por cuestión de etnia, nacionalidad, origen social, edad, orientación sexual, expresión de género, religión o cualquier otra circunstancia personal, física o social. ¿Qué te gustará de trabajar aquí? Tenemos un catálogo de medidas de Desarrollo y Conciliación muy completo, como son, por ejemplo: Un ambiente de trabajo único muy valorado por nuestros profesionales en las evaluaciones periódicas. - Wellbeing HUB - Incluye políticas y acciones para la salud física (Wellhub) y mental. - 24 días de vacaciones + 2 asuntos propios + 24 y 31 de diciembre + opción a comprar hasta 7 días de vacaciones al año. - FlexAbroad: posibilidad de trabajar en remoto desde otro país durante 45 días. - Plan de Compensación Flexible (seguro médico, transporte, formación, tarjeta restaurante o subvención de comida, guardería...) - Formación continua, podrás disfrutar de Mylearning y de Capgemini University y de nuestros Campus Digitales y Comunidades profesionales. Tendrás acceso a plataformas como: Coursera, Udemy, Pluralsight, Harvard Manager Mentor, Education First para idiomas (inglés francés, alemán...) ¡entre otras! - Participación en Acciones de Voluntariado y Acción Social con nuestros Grupos de Sostenibilidad, Inclusión e Igualdad. - Acompañamiento en tus inicios con el programa de Buddies. - Seguro de Vida y Accidentes ¿Por qué Capgemini? Capgemini es líder global en transformando los negocios de los clientes aprovechando todo el poder de la tecnología. Nos guía el propósito de lograr un futuro inclusivo y sostenible a través de la tecnología y de la energía de quienes la desarrollamos. Somos una compañía responsable y diversa, líder internacional en servicios de IT e Ingeniería con más de 360.000 profesionales en más de 50 países. Con una sólida herencia de 55 años y una amplia experiencia en la industria, los clientes confían en Capgemini para abordar la totalidad de sus necesidades comerciales, desde la estrategia y el diseño hasta las operaciones, impulsadas por el rápido y novedoso mundo de la nube, los datos, la IA, la conectividad, el software, las plataformas e ingeniería digitales. El Grupo reportó en 2022 ingresos globales de EUR22 mil millones. Reescribe tu futuro. ¡Únete al equipo! www.capgemini.com/es-es
-
23/10/2025
Madrid
Description: ¿Te apasiona resolver incidencias complejas y diseñar soluciones de datos que impactan en producción? Únete a un equipo dinámico donde podrás combinar tu conocimiento técnico con la mejora continua y la calidad del dato. Qué harás Analizar y diagnosticar incidencias derivadas de los sistemas de datos. Diseñar y desarrollar soluciones para resolver problemas detectados. Verificar el correcto funcionamiento de las soluciones implementadas. Supervisar los despliegues en entornos productivos. Documentar procesos, incidencias y soluciones. Colaborar con equipos de desarrollo, operaciones y negocio para garantizar la calidad y disponibilidad del dato. Imprescindible 3-5 años de experiencia como Data Engineer o similar. Conocimiento experto en Snowflake. Programación en Python o Java para desarrollo de pipelines. Experiencia con Azure App Service y Azure Synapse Studio. Uso de Azure DevOps para orquestación y despliegues. Experiencia con MongoDB y Delta Lake (arquitecturas Lakehouse). Deseable Experiencia en arquitecturas de datos distribuidas y streaming (Kafka, Spark). Conocimientos en monitorización y observabilidad (Datadog, Grafana). Nociones de Data Governance y seguridad en cloud. Familiaridad con CI/CD para entornos de datos. Inglés medio. ¿Qué es lo que le ofrecemos? Salario competitivo en función de la experiencia Contrato indefinido u Opción de Contrato Mercantil 22 días laborables de vacaciones Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte Formación en Tecnología y Soft Skills Programa de referidos: 500 EUR por candidatos recomendados que se incorporen con nosotros Condiciones Contrato: Indefinido Modalidad: Híbrido (2-3 días oficina - zona Atocha, Madrid) Inicio: Inmediato Duración: 1 año Horario: Lunes a jueves de 9:00 a 18:00 h, viernes de 8:00 a 15:00 h Verano: Jornada intensiva. Guardias: Sí, según calendario del proyecto. Salario: En función de la experiencia laboral: 30 - 36.000 EUR b/a Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Nos comprometemos estar a tu lado en todas las fases del proyecto, para asegurarnos que creces profesionalmente con nosotros, y que tu aportación cuenta. ¿Quieres estar al día con las últimas tecnologías y buscas nuevos desafíos? ¡Envíanos tu CV y nos ponemos en contacto contigo!
-
06/10/2025
Madrid
Description: Desde Grupo Digital, estamos en la búsqueda de perfiles Devops/Automation Engineer para formar parte de nuestro equipo y colaborar con uno de nuestros clientes del sector servicios tecnológicos. Imprescindible: Conocimientos contrastados en sistemas operativos Windows y Linux Experiencia en Automatización con Ansible Automation Platform/Ansible Tower/AWX/AWX Operator Experiencia con integraciones (e.g. ServiceNow) e inventarios (e.g. vSphere) utilizando Ansible collection Experiencia en Automatización con Ansible, especialmente para sistemas Windows y Linux utilizando las mejores prácticas de trabajo con Ansible (roles y playbooks) Conocimientos en VMWare/AWS/Azure/GCP Experiencia en Infraestructura como código utilizando Terraform para el despliegue de infraestructuras en VMWare/AWS/Azure . Conocimiento de creación y modificación de módulos Terraform Haber trabajado en entornos DevOps para el despliegue de infraestructuras y automatismos. Conocimiento de creación y modificación de Github GitActions o similar (azure Devops/Github, Jenkins) Conocimiento de programación en Python, especialmente con conocimientos en bibliotecas Boto3 (AWS), Azure y Pandas Conocimientos de Packer Deseable: Nivel de inglés avanzado tanto escrito como hablado. Certificaciones profesionales acorde a los conocimientos requeridos Condiciones: Contrato: Indefinido Modalidad: Híbrido (1 día presencial en Madrid) Horario: Jornada completa Salario: En función de la experiencia laboral Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Nos comprometemos estar a tu lado en todas las fases del proyecto, para asegurarnos que creces profesionalmente con nosotros, y que tu aportación cuenta. ¿Quieres estar al día con las últimas tecnologías y buscas nuevos desafíos? ¡Envíanos tu CV y nos ponemos en contacto contigo!
-
17/10/2025
Madrid
Ingeniero/a en Inteligencia Artificial Ubicación: Madrid (modalidad híbrida) Horario: 40 horas semanales Tipo de proceso: contratación directa por Zemsania Sobre la posición Buscamos un/a Ingeniero/a en Inteligencia Artificial con experiencia en proyectos de IA generativa para incorporarse a un entorno innovador y dinámico. Formarás parte de un equipo estratégico, apoyando al área de CTO en iniciativas clave relacionadas con Cloud, IA y Platform Engineering. Requisitos mínimos Grado/Licenciatura en Ingeniería Informática o formación equivalente Inglés alto (mínimo B2) Experiencia mínima de 4 años en proyectos de Inteligencia Artificial Conocimientos en: IA generativa (Transformers, embeddings, redes neuronales profundas) Python y APIs de IA Arquitecturas agénticas (MCP, A2A) Cloud: AWS, Azure, OpenShift CI/CD: GitHub Actions, Terraform, Docker, Kubernetes SDLC: análisis, diseño, desarrollo (frontend/backend), validación Metodologías ágiles: Scrum, Kanban Herramientas colaborativas: Jira, Confluence, Power BI Requisitos deseables Experiencia en entornos corporativos (tecnología, banca, servicios financieros) Funciones principales Apoyo transversal al área de CTO en iniciativas estratégicas Documentación técnica, seguimiento de KPIs y apoyo operativo en proyectos clave Diseño e integración de tecnologías de IA en arquitecturas existentes Elaboración de estándares técnicos y gestión del conocimiento Participación en análisis funcional y técnico con entregables claros y estructurados Lo que te ofrecemos Incorporación a un proyecto innovador en el sector tecnológico Modalidad híbrida en Madrid Entorno colaborativo y dinámico con metodologías ágiles Oportunidad de trabajar con tecnologías punteras en IA y Cloud En Zemsania, creemos en la igualdad de oportunidades y en la diversidad como valores fundamentales para el éxito de nuestra organización. Por ello, garantizamos un proceso de selección basado en el mérito y sin discriminación por motivos de género, edad, discapacidad, orientación sexual, raza, religión o cualquier otra condición personal o social.
-
04/10/2025
Madrid
Aplican únicamente personas que viven en España Requisitos: Experiencia: Mínimo 3 años de experiencia en programación. Conocimientos imprescindibles: Programación en Spark y Python (PySpark). Conocimiento sólido de Google Cloud Platform (GCP). Experiencia práctica con herramientas de desarrollo como: GIT Maven Jenkins Artifactory SonarQube Conocimientos deseables: Familiaridad con Amazon Web Services (AWS). Beneficios de ser un Yellower 🐝 Contrato indefinido Modalidad 100% Remoto Incorporación inmediata. Rango salarial 27 K 23 días de vacaciones hábiles por año laborado Apiux Academy: Formación, entrenamientos técnicos e interacción con la comunidad tech para desarrollar tu talento al máximo. Clases de inglés Profesor de inglés 24/7. Día de tu cumpleaños libre. Bonos por nacimiento, matrimonio y referidos. Happy Points: Un sistema de puntos que puedes canjear por días libres. Proyectos de larga duración y en algunos casos internacionales. Y-Share: ¡Sé dueño de una parte de la compañía uniéndose a nuestro programa! En Apiux nos identificamos como una fábrica de talento con fuerte orientación al negocio donde continuamente se brindan espacios a las nuevas generaciones para mostrar y desarrollar ideas, conocimientos, y exponer modelos de negocios innovadores enfocados en cubrir siempre con una propuesta de valor, las necesidades de nuestros clientes. ¿Qué hacemos? Posicionamos el mejor talento, dando un enfoque estratégico y nos esforzamos por entender a cabalidad la cultura y valores de cada uno de nuestros clientes con el fin de hacer el match perfecto entre cliente y talento. Velamos además por brindar una candidate experience y Employee experience ejemplar para nuestros futuros yellowers.🤟🚀 Ser un Yellower, significa pertenecer a una familia con principios integrales donde el espíritu ágil, colaborador, innovador y deportivo, son el combustible que día tras día le inyectamos a nuestro corazón para cada vez hacer las cosas mejor.💛 ¿Quieres ser un Yellower e impactar el futuro con la Tecnología y tu Talento? ¡Esperamos tu postulación!
-
22/10/2025
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
Purpose of the Role: Join a multidisciplinary architecture team focused on designing and implementing advanced DevOps solutions for highly efficient, geo-redundant, and high-availability deployments. The role emphasizes the integration of modern applications, SRE principles, and the development of top-notch infrastructure using state-of-the-art technology stacks. Candidates will work across AWS, Azure, OpenShift, MetalLB, bare-metal Kubernetes, and hybrid environments focusing in Kubernetes technologies as deployment stack. Note: This position is not focused on traditional CI/CD engineering; experience limited predominantly to pipeline creation will not be considered sufficient. Candidates must demonstrate advanced infrastructure and application integration skills, especially in Kubernetes, cloud automation, and distributed networking. Key Responsibilities: Architect, develop, and maintain sophisticated Helm Charts, with focus on template management, parameterization, and lifecycle automation for complex Kubernetes workloads. Build, extend, and support custom Kubernetes Operators and Mutating Admission Webhooks to enable dynamic, scalable, and highly available system behaviors. Develop, manage, and maintain Terraform modules and stacks for cloud resources (emphasis on AWS, with Azure as a plus), automating provisioning, networking configuration, and cross-region failover. Design and implement infrastructure solutions with strong emphasis on high availability, geo-redundancy, distributed scaling, and reliable failover. Lead advanced troubleshooting and optimization for networking across Kubernetes clusters (network fundamentals, SDN, MetalLB, multi-cloud VPC, etc.). Apply programming expertise in Python or Golang for building and integrating operators, automation scripts, and infrastructure APIs. Collaborate closely with development teams on integrating applications via efficient, robust DevOps practices—moving beyond traditional CI/CD. Contribute to the evolution of architecture, participating in technical strategy and continuous improvement alongside expert engineers. (Bonus) Build and manage pipelines for custom internal tools and solutions; low priority. Valued Expertise: Advanced working knowledge of Kubernetes—especially Operator pattern, mutating webhooks, and Helm templating. Deep understanding of infrastructure-as-code with Terraform (AWS focus, Azure as additional asset). Strong fundamentals in networking (routing, service mesh, multi-cloud connectivity, MetalLB, SDN). Hands-on experience with OpenShift, k8s on bare metal, AWS, Azure. Programming skills in Python or Golang. Knowledge of cloud and hybrid architectures for redundancy and reliability. Familiarity with 5G networks, Istio Service Mesh, and Kubernetes API gateways is desirable but not required. Team & Culture: Multidisciplinary group centered on architectural excellence and efficient solutions for modern cloud deployments. Opportunity to solve challenging problems, drive technical innovation, and deliver robust infrastructure for cutting-edge products.
-
16/10/2025
Madrid
En INECO ofrecemos oportunidades profesionales para nuestra Subdirección de Tecnologías de la Información, especializada en proyectos y productos informáticos multidisciplinares para la Administración Pública. Por ello estamos buscando talento, para uno de los proyectos con mayor calado a nivel nacional e Internacional. Únete a INECO. Funciones: Consultor Técnico Especialista con experiencia contrastada de al menos 10 años o más como Data Scientist Participar en la toma de decisiones técnicas de la organización teniendo en cuenta las necesidades actuales y futuras. Participar en la definición de criterios claros poniendo orden ante las diferentes arquitecturas y herramientas posibles, Para que a corto, medio y largo plazo se alcancen los objetivos técnicos acordes a las necesidades sin que se produzcan desviaciones, ni cambios innecesarios. Validar que las infraestructuras que se están utilizando soncorrectas. Validar qué propuestas técnicas son las más adecuadas, determinando cuáles son las más aconsejables. Ante el cambio de proveedores, deben supervisar que se mantiene el conocimiento técnico a nivel de la organización. Requerimientos: Consultor Técnico Especialista con experiencia contrastada de al menos 10 años o más como Data Scientist. Que haya participado en la definición de arquitectura, diseño e implementaión de grandes infraestructuras en el ámbito de Big Data e Inteligencia Artificial Experiencia en el despliegue de infraestructura en nubes híbridas. Altas capacidades de gestión, habilidades sociales y de trabajo en equipo para varios proyectos a la simultáneos. Debe estar acostumbrado a la presión, cambios y ritmo variable. Debe saber gestionar situaciones de alto volumen de carga de trabajo. Capacidad organizativa, gestión y control. -Capacidad de autogestión, trabajo en equipo y proactividad. Que sepa adaptarse y responder. Habilidades de colaboración con el cliente y proveedores. Con buena capacidad de comunicación oral y escrita
-
07/10/2025
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
Requisitos mínimos Perfil / Experiencia: Experiencia como Data Engineer con Entornos Google Cloud - GCP. (Al menos 1, 2 o 3 años y/o en Adelante demostrables en este tipo de funciones). Necesario al menos una certificación relacionada con ámbito GCP Descripción Buscamos perfil de Ingeniero del Dato con mínimo alguna Certificacion/es de Google Cloud. Proyecto inicialmente temporal para 4 meses con posibilidades de continuidad posterior, pero garantizados esos 4 meses. Condiciones base: 100% Teletrabajo y horario de oficina con flexibilidad y posibilidad de jornada intensiva en Viernes. Contratación por nosotros, Sandav Consultores durante los primeros 4 meses y con esa posibilidad de que la compañía cliente opte por contratarte / internalizarte en su plantilla. Bandas Salariales abiertas y acordes a expectativas del perfil y condiciones de mercado. Funciones / Tecnologías a contemplar: Ingesta y almacenamiento de datos: BigQuery e integración con Cloud Storage Procesamiento de Datos: Dataform y Arquitectura Medallion (bronze, silver, gold). Integración con IA (Vertex AI), conectar entornos, automatizar inferencias dentro de pipelines o microservicios. Despliegue y automatización: Google Run / Cloud Functions, Cloud Scheduler y programaciones, IAM & Service Accounts... Automatización y Orquestación completa: pipelines end-to-end, Python, Airflow etc... ¿Quieres trabajar en una empresa en la que sabemos cómo te llamas, nos preocupamos por tu bienestar y cuando necesitas algo te atendemos al momento? SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com
-
05/09/2025
Cataluña
Porque trabajar en Sopra Steria, también es sentir Sopra Steria. Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España. Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente. Tenemos pasión por lo digital y, al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo. Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo! Buscamos un/a Ingeniero de Datos Senior para integrarse en un equipo de ciberseguridad de la administración pública. Tu misión será velar por el cumplimiento de estándares e impulsar la mejora continua y colaborar con equipos especializados en Data e Inteligencia Artificial para fortalecer las capacidades de análisis predictivo y automatización en el ámbito de la ciberseguridad. Responsabilidades y funciones: Diseñar y construir la arquitectura de datos end-to-end, desde la ingesta hasta la capa de consumo, implementando el patrón Medallion (Bronze, Silver, Gold). Desarrollar pipelines de datos robustos y escalables en tiempo real (streaming) y por lotes (batch), utilizando principalmente Azure Databricks (PySpark) y Microsoft Fabric. Implementar el modelo de datos dimensional en la capa Gold para optimizar el consumo por parte de los modelos de IA y los dashboards de Power BI. Garantizar la calidad, gobernanza y linaje de los datos a lo largo de todo el proceso, implementando validaciones automatizadas (DataOps). Colaborar estrechamente con los equipos de Ciencia de Datos y Ciberseguridad para asegurar que la arquitectura de datos cumpla con sus necesidades. Requisitos Sólida experiencia en el ecosistema de datos de Microsoft Azure. Dominio de Azure Databricks (PySpark, Structured Streaming). Experiencia con Azure Data Lake Storage Gen2 y Microsoft Fabric (Data Factory). Experiencia demostrable implementando arquitecturas Lakehouse y el patrón Medallion. Nivel experto en Python y SQL para la transformación de datos a gran escala. Experiencia en Implementación de streaming en plataformas Microsoft / Databricks Exp - 5 años en construcción de pipelines y pyspark Catalán y Castellano ¿Qué tenemos para ti? Contrato indefinido y jornada completa. 23 días de vacaciones al año. Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más! Seguro de vida y de accidentes. Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guardería, transporte, comida y formación). Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas. Onboarding personalizado: te acompañamos en todo momento para que te sientas #soprano desde el primer día. Oficinas con espacios reservados al ocio. ¡Trabajo y diversión unidos! Compañerismo y buen ambiente, el poder de la unión lo tenemos presente. Y lo más importante... la posibilidad de desarrollar tu carrera profesional con nosotros: crearemos juntos un plan de carrera personalizado, con objetivos claros, seguimiento y formación. ¡Aquí tu voz importa! Únete a nosotros y sé parte de algo más. The world is how we shape it. �� Adquirimos el compromiso de respetar la diversidad, creando un ambiente de trabajo inclusivo y aplicando políticas que favorezcan la inclusión y promuevan el respeto social y cultural en cuestiones de género, edad, funcional, orientación sexual y religión con igualdad de oportunidades.
-
07/10/2025
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
Desde Sandav Consultores estamos en búsqueda de un Senior Backend Engineer con experiencia en Java, Microservicios y Cloud para cliente con modalidad 100% teletrabajo. Funciones a realizar: Diseñar, desarrollar y optimizar servicios backend en Java 8 hasta 21 con arquitectura de microservicios en ambientes Linux. Construir y mejorar APIs REST escalables y bien documentadas. Trabajar con tecnologías de programación reactiva como RXJava con VertX. Integración a través de eventos Kafka. Desplegar y gestionar servicios en Google Cloud utilizando Kubernetes y Docker. Aplicar buenas prácticas de desarrollo, pruebas automatizadas (unitarias e integración), monitorización y principios DevOps. Colaborar en un entorno ágil (Scrum/Kanban, Spotify Model) y trabajar en estrecha comunicación con otros desarrolladores. Requisitos mínimos Ingeniería informática, telecomunicaciones o similar. Mínimo 5 años de experiencia desarrollando en Java 8+. Sólida experiencia en arquitectura de microservicios e integración de datos (Arquitectura Hexagonal, Event Driven Design, DDD). Experiencia en diseño y consumo de APIs REST. Conocimientos en Docker, Kubernetes y herramientas de gestión de contenedores. Experiencia en entornos cloud (Google Cloud, AWS, Azure, etc.). Haber trabajado en equipos ágiles y ser una persona autónoma y resolutiva. Pasión por la tecnología y curiosidad por aprender nuevas herramientas y paradigmas. Nivel de Español nativo o fluido. Requisitos deseados Conocimiento en RXJava, VertX, WebFlux o frameworks de programación reactiva. Experiencia con SpringBoot, Java 21 y Virtual Threads. Monitorización con Prometheus y Grafana. Experiencia en DevOps y CI/CD con Jenkins. Mentalidad de código limpio y buenas prácticas de arquitectura de software. Se ofrece: Proyecto estable. Contrato indefinido. Modalidad de trabajo: 100% teletrabajo Horario: De Lunes a Jueves entrada entre las 8h y las 8.30h y salida a partir de las 17h. Los viernes y meses de julio y agosto jornada intensiva. Salario: 44.000EUR - 47.000EUR (en función de la experiencia aportada por parte del candidato). Retribución flexible: tickets restaurante y seguro médico.