La oferta de trabajo Data Engineer ya no está disponible

Aquí tienes ofertas de trabajo similares:

  • 11/11/2025

    Cataluña

    Ubicación: Híbrido (Barcelona) Horario: 08:00 a 17:30 Descripción del Puesto: Se busca un/a profesional con experiencia en la administración de sistemas distribuidos y plataformas de mensajería, para integrarse en proyectos de alta complejidad. La posición requiere conocimientos sólidos en Apache Kafka y entornos cloud, con capacidad de colaborar con equipos de desarrollo y operaciones para garantizar la disponibilidad, seguridad y eficiencia de los sistemas. Requisitos Mínimos: +5 años de experiencia en administración de sistemas distribuidos o plataformas de mensajería. Conocimientos básicos de Linux (Red Hat, CentOS o similares). Experiencia básica en scripting (Bash, Python u otro lenguaje similar). Experiencia administrando clústeres de Apache Kafka (on-premise o en la nube). Requisitos Deseables: Conocimientos en Confluent Platform. Experiencia en entornos cloud: AWS, Azure o GCP. Familiaridad con Docker y Kubernetes. Experiencia con herramientas de automatización (Ansible, Terraform). Conocimientos en monitorización de sistemas (Grafana u otras). Certificaciones en Kafka o plataformas de mensajería. Funciones y Responsabilidades: Administrar y mantener clústeres de Apache Kafka, configurando brokers, topics, particiones, réplicas y controladores. Supervisar el rendimiento, disponibilidad y latencia de los sistemas, implementando mejoras y optimizaciones. Gestionar la seguridad de Kafka (autenticación, autorización, SSL, ACLS, SASL). Automatizar tareas operativas mediante scripts o herramientas como Ansible. Colaborar con equipos de desarrollo en el diseño de arquitecturas de streaming y resolución de incidencias. Implementar políticas de alta disponibilidad, respaldo y recuperación ante desastres. Integrar Kafka con herramientas de monitoreo y generar reportes de desempeño. Documentar procedimientos y configuraciones para el equipo de operaciones. Beneficios: Posición híbrida con flexibilidad en la oficina de Barcelona. Oportunidad de trabajar en proyectos de gran escala en entornos cloud y sistemas distribuidos. Desarrollo profesional y posibilidad de certificaciones internas. Entorno colaborativo y multicultural.

  • 04/10/2025

    Madrid

    Aplican únicamente personas que viven en España Requisitos: Experiencia: Mínimo 3 años de experiencia en programación. Conocimientos imprescindibles: Programación en Spark y Python (PySpark). Conocimiento sólido de Google Cloud Platform (GCP). Experiencia práctica con herramientas de desarrollo como: GIT Maven Jenkins Artifactory SonarQube Conocimientos deseables: Familiaridad con Amazon Web Services (AWS). Beneficios de ser un Yellower 🐝 Contrato indefinido Modalidad 100% Remoto Incorporación inmediata. Rango salarial 27 K 23 días de vacaciones hábiles por año laborado Apiux Academy: Formación, entrenamientos técnicos e interacción con la comunidad tech para desarrollar tu talento al máximo. Clases de inglés Profesor de inglés 24/7. Día de tu cumpleaños libre. Bonos por nacimiento, matrimonio y referidos. Happy Points: Un sistema de puntos que puedes canjear por días libres. Proyectos de larga duración y en algunos casos internacionales. Y-Share: ¡Sé dueño de una parte de la compañía uniéndose a nuestro programa! En Apiux nos identificamos como una fábrica de talento con fuerte orientación al negocio donde continuamente se brindan espacios a las nuevas generaciones para mostrar y desarrollar ideas, conocimientos, y exponer modelos de negocios innovadores enfocados en cubrir siempre con una propuesta de valor, las necesidades de nuestros clientes. ¿Qué hacemos? Posicionamos el mejor talento, dando un enfoque estratégico y nos esforzamos por entender a cabalidad la cultura y valores de cada uno de nuestros clientes con el fin de hacer el match perfecto entre cliente y talento. Velamos además por brindar una candidate experience y Employee experience ejemplar para nuestros futuros yellowers.🤟🚀 Ser un Yellower, significa pertenecer a una familia con principios integrales donde el espíritu ágil, colaborador, innovador y deportivo, son el combustible que día tras día le inyectamos a nuestro corazón para cada vez hacer las cosas mejor.💛 ¿Quieres ser un Yellower e impactar el futuro con la Tecnología y tu Talento? ¡Esperamos tu postulación!

  • 03/11/2025

    Madrid

    Description: Desde Grupo Digital, buscamos un/a Data Engineer / Data Architect para trabajar con uno de nuestros grandes clientes. Funciones: 60-70% tareas de Ingeniería de Datos 30-40% tareas de Arquitectura de Datos Migración de la Arquitectura. Soporte a los Data Engineers. Requisitos: Azure Data Factory Azure Databricks Azure Storage Azure DevOps Pipelines para CI/CD Python SQL Server Conocimientos de: Arquitecturas Medallion Modelado Kimball PowerBI Requisitos deseables: Kafka Debezium ¿Qué es lo que le ofrecemos? Salario competitivo en función de la experiencia Contrato indefinido u Opción de Contrato Mercantil 22 días laborables de vacaciones Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte Formación en Tecnología y Soft Skills Programa de referidos: 500 EUR por candidatos recomendados que se incorporen con nosotros Condiciones Laborales: Lugar de trabajo: Madrid. Modalidad: Remoto. Salario: 40 - 50.000EUR brutos anuales (según experiencia). Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Nos comprometemos estar a tu lado en todas las fases del proyecto, para asegurarnos que creces profesionalmente con nosotros, y que tu aportación cuenta. ¿Quieres estar al día con las últimas tecnologías y buscas nuevos desafíos? ¡Envíanos tu CV y nos ponemos en contacto contigo!

  • 28/10/2025

    Galicia, Andalucía, Comunidad Valenciana

    Description: Únete a un equipo de ingeniería de datos especializado en genómica e investigación sanitaria, donde tus desarrollos impulsarán proyectos reales con impacto en la salud. Si te apasionan los datos complejos, los entornos regulados y las tecnologías punteras, este reto te va a motivar. La incorporación sería directa en la plantilla de uno de nuestros grandes clientes. Qué harás Diseñar y operar pipelines de ingestión e integración de datos complejos. Orquestar y monitorizar flujos con Apache NiFi y Airflow. Integrar múltiples fuentes (relacionales, NoSQL, APIs REST/GraphQL, Kafka, data lakes). Implementar trazabilidad, calidad y alertas en procesos ETL/ELT. Documentar modelos, procesos y APIs. Trabajar con datos genómicos y clínicos (FASTQ, BAM, VCF, registros clínicos) en entornos regulados. Imprescindible +3 años de experiencia en ingeniería de datos, integración y transformación. Experiencia práctica con Airflow y NiFi. Conocimiento en modelado de datos estructurados/semi-estructurados y Big Data (Hadoop, Spark). Experiencia con Kafka y sistemas de mensajería. Conocimientos de seguridad, calidad de datos y GDPR. Residencia en Reus, Granada, Sevilla, Málaga, A Coruña o Valencia. Deseable Experiencia con Infraestructura como Código (Terraform, Helm). Familiaridad con CI/CD (GitLab CI/CD, Jenkins). Experiencia en proyectos de ciencia de datos o genómica. ¿Qué ofrecemos? Ambiente de trabajo internacional, positivo, dinámico y motivado. Modelo de trabajo híbrido (teletrabajo/presencial). Horario flexible. Formación continua: Preparación certificaciones, acceso a Coursera, clases semanales de inglés y alemán... Plan de compensación flexible: seguro médico, tickets restaurante, guardería, ayudas al transporte... Seguro de vida y accidentes. Más de 26 días laborables de vacaciones al año. Fondo social. Servicio gratuito en especialistas (médicos, fisioterapeutas, nutricionistas, psicólogos, abogados...) 100% del salario en caso de baja médica Condiciones Contrato: Indefinido Modalidad: Híbrida (oficinas en Reus, Granada, Sevilla, Málaga, A Coruña o Valencia) Ubicación: Cualquiera de las anteriores ciudades Horario: Jornada completa, horario flexible Salario: En función de la experiencia. 45 - 50.000 EUR b/a. Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Nos comprometemos estar a tu lado en todas las fases del proyecto, para asegurarnos que creces profesionalmente con nosotros, y que tu aportación cuenta. ¿Quieres estar al día con las últimas tecnologías y buscas nuevos desafíos? ¡Envíanos tu CV y nos ponemos en contacto contigo!

  • 04/11/2025

    Cataluña

    Administrador/a Apache Kafka | Área de Sistemas ¿Te apasiona el mundo de la monitorización, la automatización y los entornos cloud? ¡Esta posición puede ser para ti! Estamos buscando un/a profesional con conocimientos básicos en Apache Kafka, Linux (Red Hat, CentOS o similares) y habilidades en scripting (Bash, Python, etc.) para unirse a un equipo técnico en el sector SSPP. Requisitos mínimos: Conocimientos básicos en administración de Apache Kafka. Familiaridad con sistemas Linux (Red Hat, CentOS o similares). Habilidades básicas en scripting (Bash, Python, etc.). Requisitos deseables: Experiencia con Docker, Kubernetes o herramientas de automatización (Ansible, Terraform). Conocimientos de monitorización (Grafana). Programación básica en Python o Bash. Conocimientos básicos de cloud (AWS, Azure, GCP). Funciones: Apoyar en la instalación, configuración y mantenimiento de clústeres Kafka. Supervisar el rendimiento y disponibilidad de los servicios. Automatizar tareas operativas (scripts, pipelines, etc.). Gestionar topics, brokers y consumidores. Colaborar con equipos de desarrollo en la resolución de incidencias. Documentar procedimientos y configuraciones. Modalidad de trabajo: Lo ideal es formato híbrido en Barcelona, pero se valoran candidaturas en remoto. Horario: De lunes a viernes, de 08:00 a 17:30. ¿Qué ofrecemos desde Zemsania? Contrato estable con proyección profesional en entornos multicliente. Modalidad híbrida o remota, con autonomía y flexibilidad horaria. Seguimiento continuo por parte del equipo de Talent y People Partner. Formación y actualización continua en tecnologías de alto valor. Posibilidades de crecimiento profesional dentro de un entorno colaborativo e innovador. En Zemsania, creemos en la igualdad de oportunidades y en la diversidad como valores fundamentales para el éxito de nuestra organización. Por ello, garantizamos un proceso de selección basado en el mérito y sin discriminación por motivos de género, edad, discapacidad, orientación sexual, identidad de género, raza, religión o cualquier otra condición personal o social.

  • 07/10/2025

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    Elegir Capgemini es elegir la posibilidad de dar forma a tu carrera profesional como desees. Recibirás el apoyo y la inspiración de una comunidad colaborativa de colegas de todo el mundo y podrás reinventar lo que es posible. Únete a nuestro equipo y ayuda a las principales organizaciones del mundo a descubrir el valor de la tecnología y a construir un mundo más sostenible e inclusivo. Nuestro equipo de Data & AI estará encantado de que te unas. Tenemos numerosos proyectos multisectoriales, tanto nacionales como internacionales que te esperan. Con formación y certificaciones, podrás crecer y/o reorientar tu perfil dentro del área del dato. ¿Qué harás en el proyecto? ¿Cuál será tu rol? Como Ingeniero/a de Datos de Azure, serás responsable de ampliar y optimizar las arquitecturas de datos y canalizaciones, así como de optimizar la recopilación y el flujo de datos en todos los equipos funcionales. Al mismo tiempo...  Podrás desarrollar proyectos desde cero con la colaboración del equipo.  Participarás en el diseño de arquitecturas y toma de decisiones en un entorno constructivo. Desarrollarás proyectos en Cloud Construirás pipelines escalables con diferentes tecnologías. Para sentirte a gusto en la posición, se requiere: Experiencia de entre 3 y 5 años como Data Engineer trabajando con SQL (SMSS), Python (Silver) y Azure (Azure Synapse, Azure DevOps, incluyendo Git, y/o PySpark). Experiencia con bases de datos relacionales y modelado de datos. Experiencia con herramientas de BI como Power BI y conocimientos de procesos ETL. Conocimientos de pruebas unitarias, configuración de pipelines de datos y linaje de datos. Experiencia aplicando soluciones en la nube de Azure como Azure Data Factory, Azure Data Lake Storage y Azure Synapse Analytics. Se valorará positivamente conocimiento de SAS, así como conocimiento de aplicaciones de IA para convertir eficientemente código SAS a la arquitectura objetivo (SQL - PySpark). Habilidades comunicativas para interlocutar con arquitectos/as de datos y el resto del equipo. Nivel fluido de inglés oral y escrito. Proactividad, responsabilidad, buena capacidad de gestión del tiempo, trabajo en equipo. Se valorará positivamente el poseer certificado de discapacidad, en el marco de nuestra política de inclusión y diversidad Valoraremos todas las candidaturas. Contamos con una amplísima oferta formativa, presencial, online de Certificaciones, etc. Aunque no tengas el 100% de los conocimientos valorados ¡nos encantará conocerte! Nuestro compromiso con la inclusión e igualdad de oportunidades hace que tengamos un Plan de Igualdad y un Código Ético que garantizan el desarrollo profesional de la plantilla y la igualdad de oportunidades en su selección dentro de un entorno libre de discriminación por cuestión de etnia, nacionalidad, origen social, edad, orientación sexual, expresión de género, religión o cualquier otra circunstancia personal, física o social. ¿Qué te gustará de trabajar aquí? Tenemos un catálogo de medidas de Desarrollo y Conciliación muy completo, como son, por ejemplo: Un ambiente de trabajo único muy valorado por nuestros profesionales en las evaluaciones periódicas. - Wellbeing HUB - Incluye políticas y acciones para la salud física (Wellhub) y mental. - 24 días de vacaciones + 2 asuntos propios + 24 y 31 de diciembre + opción a comprar hasta 7 días de vacaciones al año. - FlexAbroad: posibilidad de trabajar en remoto desde otro país durante 45 días. - Plan de Compensación Flexible (seguro médico, transporte, formación, tarjeta restaurante o subvención de comida, guardería...) - Formación continua, podrás disfrutar de Mylearning y de Capgemini University y de nuestros Campus Digitales y Comunidades profesionales. Tendrás acceso a plataformas como: Coursera, Udemy, Pluralsight, Harvard Manager Mentor, Education First para idiomas (inglés francés, alemán...) ¡entre otras! - Participación en Acciones de Voluntariado y Acción Social con nuestros Grupos de Sostenibilidad, Inclusión e Igualdad. - Acompañamiento en tus inicios con el programa de Buddies. - Seguro de Vida y Accidentes   ¿Por qué Capgemini?   Capgemini es líder global en transformando los negocios de los clientes aprovechando todo el poder de la tecnología. Nos guía el propósito de lograr un futuro inclusivo y sostenible a través de la tecnología y de la energía de quienes la desarrollamos. Somos una compañía responsable y diversa, líder internacional en servicios de IT e Ingeniería con más de 360.000 profesionales en más de 50 países. Con una sólida herencia de 55 años y una amplia experiencia en la industria, los clientes confían en Capgemini para abordar la totalidad de sus necesidades comerciales, desde la estrategia y el diseño hasta las operaciones, impulsadas por el rápido y novedoso mundo de la nube, los datos, la IA, la conectividad, el software, las plataformas e ingeniería digitales. El Grupo reportó en 2022 ingresos globales de EUR22 mil millones. Reescribe tu futuro. ¡Únete al equipo!   www.capgemini.com/es-es

  • 23/10/2025

    Madrid

    Description: ¿Te apasiona resolver incidencias complejas y diseñar soluciones de datos que impactan en producción? Únete a un equipo dinámico donde podrás combinar tu conocimiento técnico con la mejora continua y la calidad del dato. Qué harás Analizar y diagnosticar incidencias derivadas de los sistemas de datos. Diseñar y desarrollar soluciones para resolver problemas detectados. Verificar el correcto funcionamiento de las soluciones implementadas. Supervisar los despliegues en entornos productivos. Documentar procesos, incidencias y soluciones. Colaborar con equipos de desarrollo, operaciones y negocio para garantizar la calidad y disponibilidad del dato. Imprescindible 3-5 años de experiencia como Data Engineer o similar. Conocimiento experto en Snowflake. Programación en Python o Java para desarrollo de pipelines. Experiencia con Azure App Service y Azure Synapse Studio. Uso de Azure DevOps para orquestación y despliegues. Experiencia con MongoDB y Delta Lake (arquitecturas Lakehouse). Deseable Experiencia en arquitecturas de datos distribuidas y streaming (Kafka, Spark). Conocimientos en monitorización y observabilidad (Datadog, Grafana). Nociones de Data Governance y seguridad en cloud. Familiaridad con CI/CD para entornos de datos. Inglés medio. ¿Qué es lo que le ofrecemos? Salario competitivo en función de la experiencia Contrato indefinido u Opción de Contrato Mercantil 22 días laborables de vacaciones Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte Formación en Tecnología y Soft Skills Programa de referidos: 500 EUR por candidatos recomendados que se incorporen con nosotros Condiciones Contrato: Indefinido Modalidad: Híbrido (2-3 días oficina - zona Atocha, Madrid) Inicio: Inmediato Duración: 1 año Horario: Lunes a jueves de 9:00 a 18:00 h, viernes de 8:00 a 15:00 h Verano: Jornada intensiva. Guardias: Sí, según calendario del proyecto. Salario: En función de la experiencia laboral: 30 - 36.000 EUR b/a Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Nos comprometemos estar a tu lado en todas las fases del proyecto, para asegurarnos que creces profesionalmente con nosotros, y que tu aportación cuenta. ¿Quieres estar al día con las últimas tecnologías y buscas nuevos desafíos? ¡Envíanos tu CV y nos ponemos en contacto contigo!

  • 07/10/2025

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    Desde Sandav Consultores estamos en búsqueda de un Senior Backend Engineer con experiencia en Java, Microservicios y Cloud para cliente con modalidad 100% teletrabajo. Funciones a realizar: Diseñar, desarrollar y optimizar servicios backend en Java 8 hasta 21 con arquitectura de microservicios en ambientes Linux. Construir y mejorar APIs REST escalables y bien documentadas. Trabajar con tecnologías de programación reactiva como RXJava con VertX. Integración a través de eventos Kafka. Desplegar y gestionar servicios en Google Cloud utilizando Kubernetes y Docker. Aplicar buenas prácticas de desarrollo, pruebas automatizadas (unitarias e integración), monitorización y principios DevOps. Colaborar en un entorno ágil (Scrum/Kanban, Spotify Model) y trabajar en estrecha comunicación con otros desarrolladores. Requisitos mínimos Ingeniería informática, telecomunicaciones o similar. Mínimo 5 años de experiencia desarrollando en Java 8+. Sólida experiencia en arquitectura de microservicios e integración de datos (Arquitectura Hexagonal, Event Driven Design, DDD). Experiencia en diseño y consumo de APIs REST. Conocimientos en Docker, Kubernetes y herramientas de gestión de contenedores. Experiencia en entornos cloud (Google Cloud, AWS, Azure, etc.). Haber trabajado en equipos ágiles y ser una persona autónoma y resolutiva. Pasión por la tecnología y curiosidad por aprender nuevas herramientas y paradigmas. Nivel de Español nativo o fluido. Requisitos deseados Conocimiento en RXJava, VertX, WebFlux o frameworks de programación reactiva. Experiencia con SpringBoot, Java 21 y Virtual Threads. Monitorización con Prometheus y Grafana. Experiencia en DevOps y CI/CD con Jenkins. Mentalidad de código limpio y buenas prácticas de arquitectura de software. Se ofrece: Proyecto estable. Contrato indefinido. Modalidad de trabajo: 100% teletrabajo Horario: De Lunes a Jueves entrada entre las 8h y las 8.30h y salida a partir de las 17h. Los viernes y meses de julio y agosto jornada intensiva. Salario: 44.000EUR - 47.000EUR (en función de la experiencia aportada por parte del candidato). Retribución flexible: tickets restaurante y seguro médico.

  • 07/10/2025

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    Requisitos mínimos Perfil / Experiencia: Experiencia como Data Engineer con Entornos Google Cloud - GCP. (Al menos 1, 2 o 3 años y/o en Adelante demostrables en este tipo de funciones). Necesario al menos una certificación relacionada con ámbito GCP Descripción Buscamos perfil de Ingeniero del Dato con mínimo alguna Certificacion/es de Google Cloud. Proyecto inicialmente temporal para 4 meses con posibilidades de continuidad posterior, pero garantizados esos 4 meses. Condiciones base: 100% Teletrabajo y horario de oficina con flexibilidad y posibilidad de jornada intensiva en Viernes. Contratación por nosotros, Sandav Consultores durante los primeros 4 meses y con esa posibilidad de que la compañía cliente opte por contratarte / internalizarte en su plantilla. Bandas Salariales abiertas y acordes a expectativas del perfil y condiciones de mercado. Funciones / Tecnologías a contemplar: Ingesta y almacenamiento de datos: BigQuery e integración con Cloud Storage Procesamiento de Datos: Dataform y Arquitectura Medallion (bronze, silver, gold). Integración con IA (Vertex AI), conectar entornos, automatizar inferencias dentro de pipelines o microservicios. Despliegue y automatización: Google Run / Cloud Functions, Cloud Scheduler y programaciones, IAM & Service Accounts... Automatización y Orquestación completa: pipelines end-to-end, Python, Airflow etc... ¿Quieres trabajar en una empresa en la que sabemos cómo te llamas, nos preocupamos por tu bienestar y cuando necesitas algo te atendemos al momento? SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com

  • 22/10/2025

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    Purpose of the Role: Join a multidisciplinary architecture team focused on designing and implementing advanced DevOps solutions for highly efficient, geo-redundant, and high-availability deployments. The role emphasizes the integration of modern applications, SRE principles, and the development of top-notch infrastructure using state-of-the-art technology stacks. Candidates will work across AWS, Azure, OpenShift, MetalLB, bare-metal Kubernetes, and hybrid environments focusing in Kubernetes technologies as deployment stack. Note: This position is not focused on traditional CI/CD engineering; experience limited predominantly to pipeline creation will not be considered sufficient. Candidates must demonstrate advanced infrastructure and application integration skills, especially in Kubernetes, cloud automation, and distributed networking. Key Responsibilities: Architect, develop, and maintain sophisticated Helm Charts, with focus on template management, parameterization, and lifecycle automation for complex Kubernetes workloads. Build, extend, and support custom Kubernetes Operators and Mutating Admission Webhooks to enable dynamic, scalable, and highly available system behaviors. Develop, manage, and maintain Terraform modules and stacks for cloud resources (emphasis on AWS, with Azure as a plus), automating provisioning, networking configuration, and cross-region failover. Design and implement infrastructure solutions with strong emphasis on high availability, geo-redundancy, distributed scaling, and reliable failover. Lead advanced troubleshooting and optimization for networking across Kubernetes clusters (network fundamentals, SDN, MetalLB, multi-cloud VPC, etc.). Apply programming expertise in Python or Golang for building and integrating operators, automation scripts, and infrastructure APIs. Collaborate closely with development teams on integrating applications via efficient, robust DevOps practices—moving beyond traditional CI/CD. Contribute to the evolution of architecture, participating in technical strategy and continuous improvement alongside expert engineers. (Bonus) Build and manage pipelines for custom internal tools and solutions; low priority. Valued Expertise: Advanced working knowledge of Kubernetes—especially Operator pattern, mutating webhooks, and Helm templating. Deep understanding of infrastructure-as-code with Terraform (AWS focus, Azure as additional asset). Strong fundamentals in networking (routing, service mesh, multi-cloud connectivity, MetalLB, SDN). Hands-on experience with OpenShift, k8s on bare metal, AWS, Azure. Programming skills in Python or Golang. Knowledge of cloud and hybrid architectures for redundancy and reliability. Familiarity with 5G networks, Istio Service Mesh, and Kubernetes API gateways is desirable but not required. Team & Culture: Multidisciplinary group centered on architectural excellence and efficient solutions for modern cloud deployments. Opportunity to solve challenging problems, drive technical innovation, and deliver robust infrastructure for cutting-edge products.