The job offer Cloud Security Engineer (En Remoto) is not available any more

Here are some similar offers:

  • 10/09/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Desarrollador/a Fullstack Nodejs y Vuejs Desde CMV Consultores te brindamos las mejores oportunidades, en importantes clientes. Programador/a fullstack con NodeJs y Vue para el área de DevOps & Software Development Tools en GSD Conocimientos Requeridos: Node.js (javascript, typescript) - High proficiency Control de versiones: GIT BBDD relacionales ( PostgresSQL) - High proficiency VUE Integración continua Testing (Mocha&Chai) Aplicaciones sobre Cloud y Kubernetes. (preferiblemente: GAE, GCE, GKE, Datastore, LB) Proactivo y con buena actitud. Que le guste y esté dispuesto a aprender nuevas tecnologías. Conocimientos Deseables: Trabajo con metodologías ágiles Microservicios, experiencia con arquitecturas escalables. Kubernetes ó Docker ó ambas. Conocimientos Jenkins. Conocimiento de las características y capacidades de los servicios de computación, almacenamiento, redes y seguridad en GCP Cultura devops ¿Qué se Ofrece? Contrato indefinido y salario competitivo según valía. Proyecto a largo plazo

  • 28/08/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    En Rawson BPO trabajamos para impulsar tu carrera profesional proponiéndote nuevos retos. Trabajarás con las tecnologías más vanguardistas tanto en proyectos nacionales e internacionales. ¿Qué buscamos? Buscamos un Arquitecto de Soluciones para realizar el diseño y despliegue de la plataforma Exadata dentro del despliegue OCI Requisitos imprescindibles: Más de 3 años de experiencia en despliegue de Oracle Exadata en arquitecturas OCI (Oracle Cloud Infrastructure) Administración de bases de datos Oracle en Exadata (PDB, CDB, Data Guard). Gestión de Exadata Virtual Clusters y entornos de virtualización. Configuración avanzada en OCI: seguridad, autoescalado, redes (VCN, DRN). Almacenamiento y optimización en Exadata (NFS, ACFS). Alto nivel de Ingles ¿Qué te ofrecemos? Contrato Indefinido Salario competente y revisable Formación continua IT e Idiomas Retribución flexible Modalidad de trabajo: Teletrabajo 100% ¡Si estás buscando una empresa dónde valores el trato personalizado esta es la tuya!

  • 26/08/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    We are still looking for the very Top Talent...and we would be delighted if you were to join our team! More in details, UST is a multinational company based in North America, certified as a Top Employer and Great Place to Work company with over 35.000 employees all over the world and presence in more than 35 countries. We are leaders on digital technology services, and we provide large-scale technologic solutions to big companies. What we look for? For one of those projects, we are seeking a dynamic and experienced Data Engineer (Snowflake) with strong SQL, Testing, ETLs, etc. 100% remote position for people located in Spain. Key Responsibilities: Design and execute test plans. Data Validation for accuracy and completeness. Perform ETL process verification and ensure dependencies are functioning as expected. Collaborate with engineering and data teams to triage issues and resolve defects. Document test results, issues, and resolutions clearly and consistently. Ensure security and access controls are preserved. Test Automation into CI Pipeline. Ensure Error Handling and Logging behaving as expected. Conduct performance testing. Mandatory requirements: Proven experience testing data migrations. Strong Data warehousing / Dimensional Modelling concepts. Strong SQL expertise. Strong Azure Data Factory (ADF), Synapse and Snowflake. Experience with automated testing tools. Ability to validate data transformations and outputs. Experience with Integration Testing, Exploratory Testing and Performance Testing Excellent communication and documentation skills. Experience working with 3rd party vendors Desirable: Background in performance tuning and query optimization. Exposure to scripting languages (e.g., Python) for test automation. Visual Studio, C#, XUnit, ADO, GIT PowerBI experience to help repoint reports to Snowflake ¿What can we offer? 23 days of Annual Leave plus the 24th and 31st of December as discretionary days! Numerous benefits (Heath Care Plan, Internet Connectivity, Life and Accident Insurances). Retribución Flexible´ Program: (Meals, Kinder Garden, Transport, online English lessons, Heath Care Plan...) Free access to several training platforms Professional stability and career plans UST also, compensates referrals from which you could benefit when you refer professionals. The option to pick between 12 or 14 payments along the year. Real Work Life Balance measures (flexibility, WFH or remote work policy, compacted hours during summertime...) UST Club Platform discounts and gym Access discounts If you would like to know more, do not hesitate to apply and we'll get in touch to fill you in details. UST is waiting for you! In UST we are committed to equal opportunities in our selection processes and do not discriminate based on race, gender, disability, age, religion, sexual orientation or nationality. We have a special commitment to Disability & Inclusion, so we are interested in hiring people with disability certificate.

  • 05/09/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    En Rawson BPO buscamos un DevOps - Software Engineer con experiencia en infraestructura y automatización en AWS para dar soporte a proyectos de Generative AI (GenAI). Un Ingeniero de Software con fuerte enfoque en DevOps, Backend y Cloud (AWS), capaz de construir y desplegar infraestructura escalable y segura, automatizar pipelines, e integrar modelos GenAI en entornos productivos. Responsabilidades Implementar y mantener infraestructura AWS para cargas de trabajo GenAI en producción, utilizando servicios como Lambda, API Gateway, DynamoDB, Bedrock, S3, SageMaker e IAM. Desarrollar y mantener componentes GenAI reutilizables en Python, integrados con servicios AWS, incluyendo logging, monitoring y pruebas automatizadas. Diseñar y gestionar infraestructura como código mediante Terraform. Construir y mantener pipelines CI/CD con GitHub Actions (validación, testing, despliegue y chequeos post-deployment). Implementar políticas de seguridad e IAM robustas para la ejecución de cargas GenAI. Colaborar con equipos multidisciplinares (Data Scientists, Backend Engineers y DevOps). Requisitos Experiencia mínima de 5 años en entornos IT. Nivel de inglés C1. Conocimientos obligatorios: AWS (Lambda, API Gateway, Bedrock, S3, SageMaker, IAM). Desarrollo en Python para construcción e integración de componentes GenAI. Terraform para provisión y gestión de infraestructura AWS. CI/CD con GitHub Actions (testing, despliegue y monitorización).

  • 11/08/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Requisitos mínimos Requisitos imprescindibles: Experiencia demostrable en diseño, despliegue y operación de Landing Zones en Azure. Conocimientos en Terraform o herramientas similares para IaC en Azure. Experiencia en automatización y uso de Azure DevOps (pipelines, repos, etc.). Conocimiento del Cloud Adoption Framework (CAF) de Azure. Experiencia en arquitectura de seguridad cloud (IAM, RBAC, control de identidades, cifrado). Mínimo 3 años de experiencia en proyectos TIC. Certificaciones en vigor en arquitectura, infraestructura, DevSecOps o seguridad en Azure. Requisitos deseados Requisitos valorables: Conocimientos en AWS y/o GCP. Experiencia con FinOps y herramientas tipo CloudHealth o Apptio. Descripción En Rawson BPO impulsamos tu carrera profesional ofreciéndote oportunidades en proyectos innovadores y entornos dinámicos. Buscamos personas comprometidas, con vocación tecnológica y orientadas a la mejora continua. Oferta: Técnico/a Sistemas Cloud Especialista en Azure Modalidad: Híbrido (2-3 días presenciales) Localidad: Madrid Requisitos imprescindibles: Experiencia demostrable en diseño, despliegue y operación de Landing Zones en Azure. Conocimientos en Terraform o herramientas similares para IaC en Azure. Experiencia en automatización y uso de Azure DevOps (pipelines, repos, etc.). Conocimiento del Cloud Adoption Framework (CAF) de Azure. Experiencia en arquitectura de seguridad cloud (IAM, RBAC, control de identidades, cifrado). Mínimo 3 años de experiencia en proyectos TIC. Certificaciones en vigor en arquitectura, infraestructura, DevSecOps o seguridad en Azure. Requisitos valorables: Conocimientos en AWS y/o GCP. Experiencia con FinOps y herramientas tipo CloudHealth o Apptio. Responsabilidades: Ser referente técnico para la plataforma Azure, manteniéndote actualizado/a sobre su catálogo de servicios. Mantener y actualizar el catálogo de servicios aprobados, garantizando el cumplimiento de los requisitos de gobernanza. Asesorar en la selección y uso adecuado de servicios cloud según las necesidades de los proyectos. Velar por el correcto funcionamiento de la Landing Zone de Azure, proponiendo mejoras y acciones. Participar en el onboarding de nuevos proyectos en Azure. Colaborar en la automatización de infraestructura cloud (IaC) y buenas prácticas. Elaborar guías, procedimientos y recomendaciones sobre el uso óptimo de los servicios cloud. ¿Qué ofrecemos? Contrato indefinido con estabilidad laboral. Salario competitivo. Formación continua en tecnologías IT e idiomas. Retribución flexible (seguro médico, transporte, guardería, etc.). Plan de carrera y crecimiento profesional. ¡Si estás buscando una empresa dónde valores el trato personalizado esta es la tuya!

  • 19/08/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    ¡Seguimos buscando talento...y nos encantaría que te unieras a nuestro equipo! Para que nos conozcas algo mejor, UST es una multinacional norteamericana certificada como Top Employer y Great Place to Work con más de 35.000 empleados a nivel global y con presencia en más de 35 países. Somos líderes en servicios de tecnología digital y proporcionamos soluciones tecnológicas de gran alcance a grandes compañías. ¿Qué buscamos? Para nuestro equipo buscamos un Data Engineer con al menos 3 años de experiencia con foco en la creación de pipelines de datos y almacenamiento para trabajar con uno de nuestros clientes del sector bancario ¿Cuáles serán tus funciones? Diseñar y desarrollar pipelines de datos eficientes y escalables para integrar y transformar grandes volúmenes de información de diversas fuentes. Gestionar y optimizar la infraestructura de datos garantizando su seguridad, rendimiento y escalabilidad. Colaborar con los equipos para facilitar el acceso a los datos, desarrollando APIs y asegurando que la calidad de los datos sea adecuada para su explotación. Realizar análisis de rendimiento y optimización de las consultas a las bases de datos, minimizando tiempos de respuesta y costos asociados al procesamiento. Implementar procesos de automatización para la integración continua de datos de diversas fuentes. Desarrollar e implementar flujos de trabajo ETL (Extract, Transform, Load) y procesos ELT según las necesidades del negocio. Supervisar y resolver problemas en los sistemas de procesamiento de datos, manteniendo la continuidad operativa. ¿Qué esperamos de ti? Licenciatura en Informática, Ingeniería de Sistemas, Matemáticas o carreras afines. Al menos 3 años de experiencia como Data Engineer o en un rol similar, con foco en la creación de pipelines de datos y almacenamiento. Experiencia en Big Data: conocimiento profundo de tecnologías como Hadoop, Spark, Hive y Kafka. Dominio avanzado de SQL para la gestión y optimización de bases de datos. Sólidos conocimientos de programación en lenguajes como Java o Scala para manipulación de datos y desarrollo de scripts. Experiencia con plataformas Cloudera en la nube. Experiencia en la creación de pipelines de datos con herramientas de automatización y orquestación con Oozie. Familiaridad con herramientas de versionado de código y CI/CD (Git, Jenkins). Familiaridad con herramientas de visualización y análisis de datos (como Tableau o Microstrategy), aunque no esencial. ¿Qué te ofrecemos? 23 días laborables de vacaciones y el 24 y 31 de diciembre. Numerosos beneficios sociales (seguro médico, ayuda al teletrabajo, seguro de vida y seguro de accidentes). Programa de Retribución Flexible (tarjeta comida, cheques guardería, tarjeta transporte, clases de inglés online, seguro médico para tu familia...). Acceso gratuito a varias plataformas de formación. Estabilidad y carrera profesional. Tenemos implantado un plan de compensación de referencias internas. Posibilidad de elección de percibir tu salario en 12 o 14 pagas. Medidas de conciliación (horario flexible, teletrabajo, asesoramiento de especialistas (psicólogo, nutricionista, entrenador personal), jornada intensiva los viernes y en verano según proyecto). Plataforma UST Club descuentos y descuentos en gimnasios. Si quieres conocer más, no dudes en inscribirte y nos pondremos en contacto contigo para ampliarte información de la posición ¡Te estamos esperando! En UST nos comprometemos con la igualdad de oportunidades en nuestros procesos de selección y no realizamos ningún tipo de discriminación por razón de raza, género, discapacidad, edad, religión, orientación sexual o nacionalidad. Estamos comprometidos con la discapacidad y apostamos por la incorporación de personas con certificado de discapacidad.

  • 04/08/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Modalidad: Remoto Nivel de inglés requerido: Bajo (A2) Tecnología principal: SQL Años de experiencia requeridos: Mínimo 2 años Descripción del Puesto: Se busca un/a profesional con experiencia en Power BI para unirse a un proyecto orientado al análisis y visualización de datos. La posición requiere una sólida base en modelado de datos y habilidades técnicas para el desarrollo de dashboards interactivos y soluciones efectivas para distintos equipos de negocio. Responsabilidades: Diseñar, desarrollar y mantener dashboards y reportes interactivos en Power BI. Realizar procesos ETL: extracción, transformación y carga de datos desde múltiples fuentes. Colaborar con distintos equipos para identificar requerimientos de negocio y traducirlos en visualizaciones útiles. Optimizar el rendimiento de informes y garantizar la calidad e integridad de los datos. Aplicar buenas prácticas en modelado de datos y en la gestión de seguridad dentro del entorno Power BI. Contribuir a la automatización y mejora continua de procesos de reporting. Requisitos Mínimos: Experiencia comprobable de al menos 2 años trabajando con Power BI. Conocimientos sólidos en modelado de datos (DAX, Power Query, relaciones). Manejo de SQL y bases de datos relacionales. Capacidad analítica y atención al detalle. Habilidades de comunicación para presentar insights a usuarios no técnicos. Requisitos Deseables: Experiencia en entornos cloud (Azure, Power BI Service). Conocimientos en Python o R para análisis avanzados. Certificaciones oficiales en Power BI o Microsoft. ¿Qué ofrecemos? Modalidad 100% remota. Incorporación a un proyecto con enfoque en análisis de datos e inteligencia de negocio. Colaboración con equipos multidisciplinarios y entornos tecnológicos actuales. Oportunidades de crecimiento profesional y aprendizaje continuo. Buen ambiente de trabajo, dinámico y orientado a resultados.

  • 14/08/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Desde CMV Consultores te brindamos las mejores oportunidades, en importantes clientes. We are seeking a profile to join the Security team where you will have the opportunity to collaborate in the project New Sales platform. Responsibilities: As a Security Engineer, you will be responsible for: Perimeter security: Review configurations and connectivity requests for AWS WAF, AWS Shield, and PaloAlto NGFW services. Microsegmentation: Knowledge of container environments, AWS EKS, Kubernetes, and Calico services is necessary to validate microservice communication permissions. Security posture:o Prisma Cloud: Deployment of Prisma Cloud configurations, tool tuning, and identification of prioritizations. Some of these capabilities or configurations are released via deployment scripts to the infrastructure team. Knowledge of Checkov and capabilitieso AWS: Review AWS Security Hub and AWS GuardDuty to identify issues to be resolved by infrastructure. It is necessary to have knowledge of the AWS CSP to undertake these tasks. Ticketing tools, documentation: You must have a basic understanding of Jira and Confluence to open tickets and document work models, execution flows, etc. Security architecture: Knowledge of various AWS services is required for possible architecture validation and compliance with platform best practices. Optional: knowledge of AWS secrets manager, CDN, AWS Lambda. Proactivity and communication skills for proper delivery at different levels of responsibility and technical capabilities. ¿Qué se ofrece? Contrato indefinido y salario competitivo según valía. Proyecto a largo plazo

  • 13/08/2025

    Madrid

    Seleccionamos: Data cloud engineer Snowflake Ubicación: Madrid. Buscamos un/a data/cloud Engineer altamente capacitado y motivado con experiencia en el desarrollo de tablas analíticas en data warehouse (Snowflake). El candidato/a ideal será experto en trabajar en diferentes entornos (desarrollo, pruebas y producción). También se valora mucho la experiencia con soluciones en la nube, concretamente AWS. El ingeniero de BI desempeñará un papel fundamental en la transformación de datos en ideas prácticas (actionable insights), garantizando la integridad de los datos y respaldando la toma de decisiones de negocio. Indispensable: Experiencia comprobada con el almacén de datos Snowflake, incluido el diseño de esquemas, desarrollo de SQL y optimización del rendimiento. Experiencia con soluciones en la nube de AWS, incluidos S3, Redshift, Lambda y otros servicios relevantes. Conocimiento de los servicios de AWS para almacenamiento, procesamiento y análisis de datos. Implementar y gestionar procesos ETL en el entorno de la nube. Garantizar la seguridad y el cumplimiento de los datos dentro del marco de AWS. Dominio de SQL y experiencia con procesos y herramientas ETL. Gran comprensión de los conceptos y mejores prácticas de data warehousing. Habilidades avanzadas en Tableau u otras herramientas de visualización (como Power BI), no para crear dashboards, sino para gestionar las conexiones. Experiencia con Jira para gestión de proyectos y seguimiento de problemas. Competencia en el uso de GitHub para control de versiones y colaboración. Requisitos deseados: Haber trabajado con DBT. Licenciatura / maestría en informática, tecnología de la información, ciencia de datos o un campo relacionado. Las certificaciones relevantes en Snowflake, AWS, Tableau u otras herramientas de BI son una ventaja. Conocimiento de Python u otros lenguajes de scripting para manipulación y automatización de datos. Funciones: Desarrollo de data warehouse: Diseñar, desarrollar y mantener tablas analíticas en el data warehouse de Snowflake. Optimizar los procesos de almacenamiento y recuperación de datos para garantizar un rendimiento eficiente de las consultas. Implementar técnicas de modelado de datos para respaldar los requisitos comerciales y las necesidades de informes. Informes y visualización: Traducir conjuntos de datos complejos en información visual clara y procesable. Proporcionar análisis de datos ad-hoc y soporte de informes a varias unidades de negocio. Gestión de entornos: Gestionar e implementar soluciones de datos en entornos de desarrollo, pruebas y producción. Garantizar transiciones fluidas entre entornos, minimizando las interrupciones en el acceso a los datos y la generación de informes. Realizar pruebas y validaciones exhaustivas de soluciones de datos en diversos entornos para garantizar la precisión y confiabilidad. Colaboración y Gestión de Proyectos: Colaborar con equipos multifuncionales, incluidos analistas de datos, científicos de datos y partes interesadas del negocio, para comprender las necesidades de datos y ofrecer soluciones. Utilice Jira para realizar un seguimiento y gestionar las tareas, los problemas y el progreso del proyecto. Mantener el control de versiones y administrar repositorios de código usando GitHub. Documentación y Gobierno de Datos: Documentar definiciones de datos, modelos, procesos y flujos de trabajo con fines de referencia y capacitación. Implementar y hacer cumplir políticas de gobierno de datos para garantizar la precisión, coherencia y seguridad de los datos. Realizar controles periódicos de calidad de los datos y solucionar cualquier problema relacionado con los datos. Condiciones: 40h semanales Flexibilidad de horario Rango salarial deseado máximo 56k

  • 08/09/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Description: En Grupo Digital para importante cliente sector energía necesitamos cubrir una vacante de Arquitecto DevOps >> diseño de modelos de integración continua. Responsabilidades: Diseñar, implementar y mantener pipelines de CI/CD utilizando GitHub Actions. Escribir las reglas de negocio usando Python como lenguaje fundamental. Definición de los modelos de uso de repositorios de GitFlow, asegurando mejores prácticas de versionado y colaboración. Integrar herramientas y servicios adicionales a través de APIs. Colaborar con equipos de desarrollo y operaciones para mejorar la infraestructura y los procesos de despliegue. Diseño de soluciones fundamentadas en Kubernetes Requisitos Minimo 4 años de experiencia como ARQUITECTO DEVOPS Amplia experiencia en diseñas soluciones de CI CD Haber sido integrantes de un equipo multidisciplinar teniendo la responsabilidad de diseñas soluciones de cicd Experiencia en diseño, gestión e implementación de workflow fundamentados en GitHub Actions o equivalente como Azure Devops Experiencia demostrable con repositorios Git utilizando la línea de comando Experiencia en desarrollo en Python para automatización y desarrollo de lógica de negocio Experiencia en contenedores y orquestadores como Docker y Kubernetes, preferiblemente en un entorno cloud (EKS y/o AKS). Conocimiento de prácticas de seguridad en DevOps y DevSecOps. Excelentes habilidades de resolución de problemas y capacidad para trabajar en equipo. Gestión de repositorios de artefactos como JFrog-Artifactory. Valorable Experiencia en diseñar arquitecturas Cloud (Terraform) Liferay Client Extensions Certificaciones relevantes en GitHub, Python, o DevOps. Experiencia en metodologías ágiles y colaboración en equipos multifuncionales. Habilidad para comunicar conceptos técnicos a audiencias no técnicas. ¿Qué ofrecemos? Salario competitivo en función de la experiencia Contrato indefinido u Opción de Contrato Mercantil 22 días laborables de vacaciones Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte Formación en Tecnología y Soft Skills "Programa de referidos": BONUS por candidatos recomendados que se incorporen con nosotros. Ubicación España. Es necesario que resida en España -- puntualmente viaje a clienteModalidad Remoto. Horario de 7:30 a 15:30 horas Inicio septiembre 2025 en cuanto a nosotros .... Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de desarrollo aplicaciones, sistemas, Big Data , Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Puedes ampliar información de la compañía en nuestra web www.grupodigital.eu