L'oferta de treball Big Data ( Dba ) -- Barcelona ja no està disponible
Aquí hi són algunes ofertes similars:
-
05/06/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
En M> Consulting buscamos un Data Streaming Engineer con experiencia en: A minimum of 3 years of experience in data engineering or a similar role, with a strong focus on data streaming technologies is preferred. Relevant certifications in data engineering or cloud platforms are a plus. Knowledge of data governance, networking and security best practices is a plus. Databricks, Python, R Proficiency in programming languages such as Java, Scala, R or Python. Strong understanding of data streaming frameworks and tools, particularly Azure EventHub, Apache Kafka and Apache Spark. Experience with Azure and their data services. Familiarity with database technologies, both SQL and NoSQL. Excellent problem-solving skills and ability to work under pressure. Strong communication and collaboration skills to work effectively in a team environment. Inglés Alto Se trabajará en una modalidad remota 100% M> Consulting es una Consultora Tecnológica y de Negocio con un fuerte bagaje profesional y especialización en sectores como la Banca, las Telecomunicaciones o la Industria. Somos una empresa joven y comprometida con la innovación y los cambios, por lo que apostamos fuerte por los nuevos retos de la tecnología: Big Data, Cloud, Desarrollo Digital o Movilidad. Trabajamos con los clientes más importantes de estos sectores, ofreciendo proyectos acordes a tu formación, experiencia y motivaciones profesionales. Ofrecemos: Incorporación a la plantilla de M>. Formación y seguimiento personalizado para tu desarrollo profesional (mentor). Participación en proyectos de tecnologías destacables en el sector. Salario acorde a la experiencia aportada Responsable del Tratamiento: Management & Global Technologies S.L Finalidad: Participar en los procesos de selección de personal del responsable del tratamiento Legitimación: Aplicación a solicitud del candidato, de medidas precontractuales o la intención de concluir el contrato de trabajo (Art. 6.1.b Rgpd) Destinatarios: Empresas en las que prestará sus servicios Ejercicio de Derechos: Tiene derecho a acceder, rectificar y suprimir sus datos, así como otros derechos que podrá consultar en nuestra política de privacidad. Puede ejercer sus derechos a través de la dirección de email *texto oculto* Información Adicional: Puede consultar la información adicional sobre nuestra política de protección de datos en esta dirección web https://www.mgt-consulting.com/politica-de-privacidad
-
30/05/2025
Andalusia
Requisitos mínimos Titulación universitaria en Ingeniería Informática, Telecomunicaciones, Estadística, Matemáticas o similar. 3 ó 4 años de experiencia como Data Engineer, Técnico/a de BI, o similar Experiencia en desarrollo de ETL (ODI, Pentaho o herramientas similares) Experiencia en Big Data: ecosistema Hadoop (HDFS, Hive, Sqoop), Apache Spark (PySpark), Kafka, Airflow.. Experiencia en herramientas de Business Intelligence: MicroStrategy, Power BI, Tableau. BBDD: SQL avanzado, optimización de consultas. Análisis de datos: Python y R. Descripción Porque trabajar en Sopra Steria, también es sentir Sopra Steria. Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España. Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente. Tenemos pasión por lo digital y al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo. Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo! ¿QUÉ RETO TE PROPONEMOS? En Sopra Steria buscamos incorporar un/a Data Engineer para colaborar en proyecto de sector público. Participarás en la explotación, análisis e integración de datos tanto en entornos tradicionales (Data Warehouse) como en arquitecturas Big Data (Data Lake, Hadoop, Spark..), apoyando la toma de decisiones mediante el uso de herramientas analíticas y procesamiento distribuido. Te encargarás de: Ejecutar procesos de integración, transformación y validación de datos. Diseñar y mantener consultas SQL optimizadas. Desarrollar informes y dashboards en herramientas BI. Explotar datos en entornos Hadoop y lagos de datos mediante Spark o Hive. Automatizar flujos de datos y garantizar la calidad de la información. Documentar procesos y estructuras técnicas para explotación analítica. ¿QUÉ TENEMOS PARA TI? Contrato indefinido y jornada completa Modelo híbrido en Sevilla 23 días de vacaciones Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más! Seguro de vida y de accidentes Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación) Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas Onboarding personalizado y detallado. Te acompañamos en todo momento para que te sientas #soprano desde el primer momento. Oficina con espacios reservados al ocio. ¡Trabajo y diversión unido! Compañerismo y buen ambiente, el poder de la unión lo tenemos presente. Y lo más importante...Tienes la posibilidad de desarrollar tu carrera profesional con nosotros: Crearemos juntos un plan de carrera personalizado. Te formarás, marcaremos objetivos y llevaremos a cabo un seguimiento para asegurarnos de que lo conseguimos juntos. Escuchamos tus prioridades y luchamos por ellas. ¡Aquí tu voz importa! ¡Únete a nosotros y sé parte de algo más! The world is how we shape it Adquirimos el compromiso de respetar la diversidad, creando un ambiente de trabajo inclusivo y aplicando políticas que favorezcan la inclusión y promuevan el respeto social y cultural en cuestiones de género, edad, funcional, orientación sexual y religión con igualdad de oportunidades.
-
24/06/2025
Madrid
¡Porque trabajar en Sopra Steria, también es sentir Sopra Steria! Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España. Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente. Tenemos pasión por lo digital y al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo. Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo! ¿QUÉ BUSCAMOS? Ingeniero de datos con los siguientes skills: Experiencia trabajando con Oracle Golden Gate (replicación de datos en tiempo real) SQL Avanzado Conceptos de replicación y alta disponibilidad Sistemas operativos: conocimientos en administración de sistemas Linux/Unix. Scripting: Bash Linux, PowerShell o Python para automatización de tareas. Spark Streaming (procesamiento de datos en tiempo real con Apache Spark) Streaming y mensajería: conocimientos de Kafka, Flink o RabbitMQ. ¿QUÉ OFRECEMOS? Trajo en remoto. Contrato indefinido y jornada completa 23 días de vacaciones Jornada intensiva de 8h a 15h los viernes y meses de verano. Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más! Seguro de vida y de accidentes. Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación). Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas Onboarding personalizado y detallado. Te acompañamos en todo momento para que te sientas #soprano desde el primer momento. Oficina con espacios reservados al ocio. ¡Trabajo y diversión unido! Compañerismo y buen ambiente, el poder de la unión lo tenemos presente. Salario negociable en función de tu experiencia y expectativas. Y lo más importante...Tienes la posibilidad de desarrollar tu carrera profesional con nosotros: Crearemos juntos un plan de carrera personalizado. Te formarás, marcaremos objetivos y llevaremos a cabo un seguimiento para asegurarnos de que lo conseguimos juntos. Escuchamos tus prioridades y luchamos por ellas. ¡Aquí tu voz importa! ¡Únete a nosotros y sé parte de algo más! The world is how we shape it Adquirimos el compromiso de respetar la diversidad, creando un ambiente de trabajo inclusivo y aplicando políticas que favorezcan la inclusión y promuevan el respeto social y cultural en cuestiones de género, edad, funcional, orientación sexual y religión con igualdad de oportunidades.
-
04/06/2025
Madrid
Desde CMV Consultores te brindamos las mejores oportunidades, en importantes clientes. Desarrollar soluciones en Python robustas y mantenibles, aplicando buenas prácticas (clean code, pruebas unitarias, patrones de diseño) para construir APIs, Azure Functions y procesos de backend escalables. Diseñar, implementar y optimizar pipelines de datos utilizando Spark y Databricks, aplicando procesos ETL/ELT eficientes y asegurando la calidad, trazabilidad y gobierno del dato. Integrar y operar bases de datos relacionales, NoSQL y vectoriales (SQL Server, MongoDB, CosmosDB, Snowflake, Azure AI Search), optimizando consultas y diseñando modelos de datos adaptados a los casos de uso. Orquestar flujos de datos y procesos en Azure, utilizando servicios como Data Factory, Azure Functions, Data Lake, Key Vault y Log Analytics para construir arquitecturas modulares, seguras y monitorizadas. Desplegar y mantener entornos de integración y entrega continua (CI/CD) en Azure DevOps o GitHub Actions, creando pipelines YAML automatizados para pruebas, análisis estático, despliegues y versionado. Colaborar en entornos controlados por GIT, siguiendo metodologías como Git Flow o trunk-based development, integrando ramas y resolviendo conflictos de forma eficiente. Aplicar principios de observabilidad y gobierno del dato, incluyendo el uso de métricas, logs, auditoría, gestión de permisos (Entra ID), y definición de buenas prácticas de operación en la nube. Explorar e integrar tecnologías de IA generativa y ML en producción, incluyendo uso de APIs de OpenAI, modelos vectoriales, endpoints en Azure Machine Learning y servicios cognitivos como Document Intelligence. ¿Qué se ofrece? Teletrabajov3 días (2 días a la oficina zona Delicias) Contrato indefinido y salario competitivo según valía. Proyecto a largo plazo
-
10/06/2025
Madrid
Descripción del proyecto: Estamos en búsqueda de un/a Consultor/a especializado/a en Ciencia de Datos para incorporarse a un proyecto del sector bancario. Esta posición requiere experiencia en el desarrollo de modelos predictivos y algoritmos avanzados utilizando herramientas de análisis estadístico y machine learning. Responsabilidades: Diseñar y desarrollar modelos predictivos y algoritmos utilizando Python, R, Spark, TensorFlow, entre otros. Analizar grandes volúmenes de datos para generar insights complejos y apoyar la toma de decisiones estratégicas. Colaborar con equipos multidisciplinarios para definir problemas de negocio y traducirlos en soluciones analíticas. Implementar flujos de trabajo de datos utilizando herramientas como Apache Airflow, Spark, Kafka o Hadoop. Visualizar resultados y comunicar hallazgos de forma clara mediante herramientas como Power BI, Tableau o Excel. Requisitos: Imprescindibles: Mínimo 3 años de experiencia como Data Scientist. Dominio de Python para análisis de datos y machine learning. Experiencia en el desarrollo de modelos predictivos y algoritmos estadísticos. Conocimiento de herramientas como R, Spark, TensorFlow. Deseables: Experiencia con herramientas de visualización como Power BI, Tableau o Excel. Conocimientos en SQL y plataformas de procesamiento de datos como Apache Airflow, Kafka o Hadoop. Nivel de inglés intermedio. ✨ Beneficios de ser un Happener Contrato indefinido Modalidad 100% Remoto Rango salarial hasta 50K 23 días de vacaciones hábiles por año laborado Apiux Academy: formación, entrenamientos técnicos e interacción con la comunidad tech para desarrollar tu talento al máximo Convenios con Open English Convenios con Coderhouse Certificaciones patrocinadas con Google Cloud, AWS, ISTQB Día de cumpleaños libre Bonos por nacimiento, matrimonio y referidos Happy Points: sistema de puntos canjeables por días libres Proyectos de larga duración y, en algunos casos, de alcance internacional Y-Share: posibilidad de ser dueño de una parte de la compañía 💡 En Apiux nos identificamos como una fábrica de talento con fuerte orientación al negocio Continuamente brindamos espacios a las nuevas generaciones para mostrar y desarrollar ideas, conocimientos y exponer modelos de negocios innovadores enfocados en cubrir, siempre con una propuesta de valor, las necesidades de nuestros clientes. 🔍 ¿Qué hacemos? Posicionamos el mejor talento con un enfoque estratégico, y nos esforzamos por entender a cabalidad la cultura y valores de cada uno de nuestros clientes, con el fin de hacer el match perfecto entre cliente y talento. Velamos, además, por brindar una candidate experience y employee experience ejemplar para nuestros futuros Happener. 🐝 Ser un Happener Significa pertenecer a una familia con principios integrales, donde el espíritu ágil, colaborador e innovador son el combustible que día tras día le inyectamos a nuestro corazón para hacer las cosas cada vez mejor. 🚀 Nuestros principios: We Care: Nos importa la gente, sus valores, principios, aprendizajes y creencias. We are not comfortable by being comfortable: No nos conformamos con la comodidad, queremos cambio, retos y tomar riesgos. We create and develop: Nuestro ADN está el crear oportunidades, servicios y productos para impactar al mundo. Desarrollamos talento y código. Crecimiento: Todos los happeners tenemos mentalidad de fundadores y dueños de Apiux. ¡Si Apiux crece, todos crecen! We embrace diversity: Incentivamos una cultura que hace que todos, sin importar las diferencias, sientan un ambiente de equidad, oportunidad e inclusión. 🌍 Compromiso con la inclusión En Apiux, estamos comprometidos con la inclusión laboral y la diversidad. Por ello, invitamos a postular a personas con discapacidad o asignatarias de una pensión de invalidez, en el marco de la Ley 21.015. ¿Quieres ser un Happener e impactar el futuro con la Tecnología y tu Talento? ¡Esperamos tu postulación! Sé parte de la colmena, sé parte del cambio. 🐝🚀
-
06/06/2025
Catalunya
En Krell Consulting, nos encontramos en la búsqueda de un Azure Engineer, para unirse a nuestro equipo, en remoto. PERFIL: Azure Platform/Synapse Engineer MODALIDAD DE TRABAJO: Remoto 100% (desde España SECTOR: Seguros Años de experiencia requeridos: 3 años REQUERIDO: Skills Azure Platform and Infrastructure: Azure Infra & Components: storage accounts, virtual networks, security groups and security conf. Setting up Azure for hosting app, data pipelines, DevOps, databases, data platforms, containers/docker/Kubernetes Automate infrastructure provisioning, configuration, and monitoring. Azure cloud resources cost management IaC using Terraform, ARM, bicep or Ansible Deploying and managing Synapse comp: SQL, Spark pools Azure Event Hubs for real-time data ingestion and stream processing. Skills Azure Synapse Infrastructure & Operations: Azure Synapse Analytics for big data analytics, warehousing & integration Tuning, error handling, high availability & reliability of Synapse-base Integrating Azure ML with Synapse for advanced analytics and predictive modeling. End-to-end solutions using Azure Synapse Stack. Tasks: Azure Platform and Infrastructure Implementation of CI/CD pipelines using Terraform and provisioning infrastructure Azure networking related tasks including integration with other components in the Allianz setup including, but not limited to virtual networks, resource groups, other resources and systems, feeders, regulatory systems Provisioning and maintaining Azure infrastructure Customer consulting to ensure e2e use case coverage with the given tool landscape in an cost efficient application design Has experience in end-to-end delivery in cloud infrastructures OFRECEMOS: Contrato indefinido. Si estás listo para llevar tu carrera al siguiente nivel y ser parte de un equipo que valora la innovación, el aprendizaje y el trabajo en equipo, queremos conocerte. ¡Tu futuro en Krell-consulting comienza aquí! #ÚneteANosotros #KrellConsulting #Azure #IngenieríaIS
-
17/06/2025
Galícia
Buscamos Ingeniero DevOps para trabajar en Ambicioso reto profesional: Se trata del proceso de Modernización de las plataformas de una compañía Gallega (Betanzos). Vendrá a ser una persona impulsora de proyectos en este sentido (Primer DevOps de la compañía como tal a pesar de contar con un equipo de Sistemas muy profesional de respaldo). Se busca una persona con actitudes e inquietudes ante las tecnologías y sus posibilidades. Compañía de retail, distribución, alimentación etc... Servicio Estable y Continuado. Perfil / Experiencia a Valorar: Tecnologías / ámbitos en Juego y de valoración: (Implantación de filosofía GitOps - ArgoCD o Flux, Contenedores, Ansible / Terraform / IaaC, cuestiones tipo Kong, Vault / Keycloak, cuestiones como Kafka, Redis, SQL y NoSQL, así como entornos de observabilidad Prometheus - Grafana, AWS....)... Condiciones base: Teletrabajo Híbrido en siguiente formato: presencial todos los lunes, y una semana de cada cuatro en Polígono de Betanzos. Resto Teletrabajo. Horario: Mismo Horario todo el año de 8 a 16:30 en jornadas presenciales (con media hora para comer) y En remoto hay flexibilidad, se deben cumplir las 8 horas habituales de jornada entre las 7 y las 19 horas a elección. Duración estable, proyecto ambicioso de transformación y servicio continuado para largo plazo. Formato de contratación: Contratación indefinida por Nosotros: Sandav Consultores, prestando servicios en esta compañía Cliente. Salario: Abierto y a convenir, desde candidaturas en ámbitos de 40.000 hasta candidaturas que puedan solicitar ámbitos de hasta entornos de los 60.000. Abiertos en este sentido, (Y en función de perfil / experiencia / conocimientos a aportar). ¿Quieres trabajar en una empresa en la que sabemos cómo te llamas, nos preocupamos por tu bienestar y cuando necesitas algo te atendemos al momento? SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, que en resumen quiere decir que CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com
-
19/06/2025
Catalunya, Madrid, Múrcia, Comunitat Valenciana
Elegir Capgemini es elegir la posibilidad de dar forma a tu carrera profesional como desees. Recibirás el apoyo y la inspiración de una comunidad colaborativa de colegas de todo el mundo y podrás reinventar lo que es posible. Únete a nuestro equipo y ayuda a las principales organizaciones del mundo a descubrir el valor de la tecnología y a construir un mundo más sostenible e inclusivo. ¿Te apetece sumarte a nosotros y participar en proyectos multisectoriales en un equipo conformado por profesionales del dato como Data Scientists, Data Engineers o Data Analysts? Nuestro objetivo es ayudar a nuestros clientes en el camino hacia la innovación continua. ¿Qué harás en el proyecto? ¿Cuál será tu rol? Estamos buscando un un/a Data Engineer con experiencia en Snowflake y DBT para unirse a nuestro equipo de I&D. El/la candidato/a ideal tendrá experiencia en el desarrollo y administración de bases de datos en la plataforma Snowflake, así como habilidades de comunicación en inglés para colaborar eficazmente con equipos internacionales con estas funciones: Diseñar, desarrollar y mantener soluciones de bases de datos en Snowflake, utilizando DBT para construir modelos de datos modulares, reutilizables y versionados que faciliten la transformación y el análisis eficiente de la información. Optimizar el rendimiento de las consultas y la gestión de datos. Colaborar con equipos de desarrollo y análisis para implementar soluciones de datos. Realizar pruebas y asegurar la calidad de los datos. Documentar procesos y procedimientos técnicos. Participar en reuniones y comunicaciones en inglés con equipos globales. Podrás desarrollar proyectos desde cero con la colaboración del equipo. Participarás en el diseño de arquitecturas y toma de decisiones en un entorno constructivo. Desarrollarás proyectos en Cloud. Construirás pipelines escalables con diferentes tecnologías. Para desenvolverte bien en la posición se requieren conocimientos en/de: Experiencia demostrable en el desarrollo de bases de datos en Snowflake. Conocimiento profundo de SQL y técnicas de optimización de consultas. Nivel avanzado de inglés, tanto escrito como hablado. Capacidad para trabajar en equipo y comunicarse eficazmente. Experiencia en la integración de datos y ETL. Conocimiento de herramientas de BI y análisis de datos es un plus. Se valorará positivamente el poseer certificado de discapacidad, en el marco de nuestra política de inclusión y diversidad. Valoraremos todas las candidaturas. Contamos con una amplísima oferta formativa, presencial, online de Certificaciones, etc. Aunque no tengas el 100% de los conocimientos valorados ¡nos encantará conocerte! Nuestro compromiso con la inclusión e igualdad de oportunidades hace que tengamos un Plan de Igualdad y un Código Ético que garantizan el desarrollo profesional de la plantilla y la igualdad de oportunidades en su selección dentro de un entorno libre de discriminación por cuestión de etnia, nacionalidad, origen social, edad, orientación sexual, expresión de género, religión o cualquier otra circunstancia personal, física o social. ¿Qué te gustará de trabajar aquí? Tenemos un catálogo de medidas de Desarrollo y Conciliación muy completo, como son, por ejemplo: Un ambiente de trabajo único muy valorado por nuestros profesionales en las evaluaciones periódicas. Wellbeing HUB - Incluye políticas y acciones para la salud física (Wellhub) y mental. 24 días de vacaciones + 2 asuntos propios + 24 y 31 de diciembre + opción a comprar hasta 7 días de vacaciones al año. FlexAbroad: posibilidad de trabajar en remoto desde otro país durante 45 días. Plan de Compensación Flexible (seguro médico, transporte, formación, tarjeta restaurante o subvención de comida, guardería...) Formación continua, podrás disfrutar de Mylearning y de Capgemini University y de nuestros Campus Digitales y Comunidades profesionales. Tendrás acceso a plataformas como: Coursera, Udemy, Pluralsight, Harvard Manager Mentor, Education First para idiomas (inglés francés, alemán...) ¡entre otras! Participación en Acciones de Voluntariado y Acción Social con nuestros Grupos de Sostenibilidad, Inclusión e Igualdad. Acompañamiento en tus inicios con el programa de Buddies. Seguro de Vida y Accidentes ¿Por qué Capgemini? Capgemini es líder global en transformando los negocios de los clientes aprovechando todo el poder de la tecnología. Nos guía el propósito de lograr un futuro inclusivo y sostenible a través de la tecnología y de la energía de quienes la desarrollamos. Somos una compañía responsable y diversa, líder internacional en servicios de IT e Ingeniería con más de 360.000 profesionales en más de 50 países. Con una sólida herencia de 55 años y una amplia experiencia en la industria, los clientes confían en Capgemini para abordar la totalidad de sus necesidades comerciales, desde la estrategia y el diseño hasta las operaciones, impulsadas por el rápido y novedoso mundo de la nube, los datos, la IA, la conectividad, el software, las plataformas e ingeniería digitales. El Grupo reportó en 2022 ingresos globales de EUR22 mil millones. Reescribe tu futuro. ¡Únete al equipo! www.capgemini.com/es-es
-
04/06/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
Buscamos un/a Ingeniero/a Big Data Senior con al menos 5 años de experiencia en desarrollo y ejecución de proyectos orientados a entornos distribuidos y procesamiento masivo de datos. El/la candidato/a ideal debe contar con fuertes capacidades analíticas, experiencia técnica sólida y capacidad para participar activamente en el diseño de arquitecturas funcionales. Requisitos Técnicos: Experiencia comprobada en: Diseño y análisis de arquitecturas funcionales Proyectos Big Data (análisis, ejecución y desarrollo distribuido) Procesamiento orientado a eventos Ingesta, ETL y procesamiento de datos Lenguajes y tecnologías: Python (PySpark) - obligatorio Apache Spark / SparkSQL Apache Airflow SQL avanzado: ¿Qué se ofrece? Contrato a largo plazo en un proyecto estable dentro del sector bancario. Modalidad de trabajo 100% remoto, con ubicación libre dentro de España. Horario fijo de lunes a viernes, de 08:00 a 17:00, con posibilidad de cierta flexibilidad. Retribución competitiva, ajustada a la experiencia y nivel técnico del candidato. Participación en proyectos tecnológicos de alto impacto, con grandes volúmenes de datos y retos complejos.
-
27/05/2025
Catalunya
En Krell Consulting, nos encontramos en la búsqueda de un Senior Engineer Cloud Kafka, para unirse a nuestro equipo, en remoto 100%. PERFIL: Senior Engineer Kafka/Cloud LOCALIZACIÓN: Barcelona MODALIDAD DE TRABAJO: Remoto 100% (desde España REQUERIDO: Senior Cloud Infrastructure Engineer, responsible for designing, implementing, and maintaining AWS and Azure cloud solutions. Expertise in Linux systems and modern infrastructure tools. Ensure performance, security, and availability of platforms. Knowledge of Confluent Kafka is desired. Meetings in English, requiring strong proficiency. Collaboration across teams to support system integration, security and management. Qualifications: +5 years experience in cloud infrastructure engineering, deep expertise in AWS and Azure. Advanced knowledge of Linux system administration, scripting, automation, and security hardening. Kubernetes, Helm charts, clustering, HA solutions, and secure configurations. Monitoring tools: Prometheus, Grafana, and Dynatrace. Version control systems, especially Git. Agile methodologies, Atlassian tools such as Jira and Confluence. Foundational knowledge of Confluent Kafka, including its purpose and basic functionalities. English C1 OFRECEMOS: Contrato indefinido. Si estás interesad@, no dudes en aplicar a la posición. ¡Esperamos su postulación!