L'oferta de treball Administrador en Productos ELK ja no està disponible
Aquí hi són algunes ofertes similars:
-
01/08/2025
Madrid
We are still looking for the very Top Talent...and we would be delighted if you were to join our team! More in details, UST is a multinational company based in North America, certified as a Top Employer and Great Place to Work company with over 35.000 employees all over the world and presence in more than 35 countries. We are leaders on digital technology services, and we provide large-scale technologic solutions to big companies. What we look for? We are looking for a 2 SAP System Administrator (Hana, Netweaver), to work for our client, one of the most prestigious private banks in Switzerland. This is a unique opportunity, as the Hub is being built from the ground up. Our associates will not only get to work on exciting, high-impact projects, but also help shape a great work environment, bring UST's culture into our client's organization, and create an amazing community of colleagues. Hybrid position in Madrid (3 days at client´s office, Sol area, next to the underground. Key Responsibilities: Install, configure, and maintain SAP systems (ERP R3 & S/4HANA, BW and HCM) Plan and execute SAP system upgrades, patches, and enhancements. Monitor and optimize system performance, ensuring efficient operation. Troubleshoot and resolve SAP Basis related issues. Develop and manage backup and disaster recovery plans. Set up and manage system monitoring tools to detect and resolve issues proactively. Maintain thorough documentation of system configurations, processes, and procedures. Work closely with functional and technical teams to support SAP projects and changes. Ensure compliance with corporate policies and industry standards. Mandatory requirements: Minimum of 5 years of experience as an SAP System Administrator. Hands-on experience with SAP NetWeaver, SAP HANA, and other SAP products. Proficiency in system administration of Unix/Linux and Windows environments. Familiarity with SAP tools like SAP Solution Manager. Knowledge of database administration (Oracle, HANA, SQL Server). Understanding of networking, security, and performance tuning. Strong problem-solving abilities. Knowledge of SAP S/4HANA and Fiori. Understanding of SAP Security concepts and authorizations. SAP System Administrator certification. Ability to work independently and as part of a team. Strong communication and interpersonal skills. Ability to manage multiple tasks and projects simultaneously. English C1 What can we offer? 23 days of Annual Leave plus the 24th and 31st of December as discretionary days! Numerous benefits (Heath Care Plan, teleworking compensation, Life and Accident Insurances). `Retribución Flexible´ Program: (Meals, Kinder Garden, Transport, online English lessons, Heath Care Plan...) Free access to several training platforms Professional stability and career plans UST also, compensates referrals from which you could benefit when you refer professionals. The option to pick between 12 or 14 payments along the year. Real Work Life Balance measures (flexibility, WFH or remote work policy, compacted hours during summertime...) UST Club Platform discounts and gym Access discounts If you would like to know more, do not hesitate to apply and we'll get in touch to fill you in details. UST is waiting for you! In UST we are committed to equal opportunities in our selection processes and do not discriminate based on race, gender, disability, age, religion, sexual orientation or nationality. We have a special commitment to Disability & Inclusion, so we are interested in hiring people with disability certificate.
-
28/08/2025
Madrid
¡Seguimos buscando talento...y nos encantaría que te unieras a nuestro equipo! Para que nos conozcas algo mejor, UST es una multinacional norteamericana certificada como Top Employer y Great Place To Work, con más de 35.000 empleados a nivel global y con presencia en más de 35 países. Somos líderes en servicios de tecnología digital y proporcionamos soluciones tecnológicas de gran alcance a grandes compañías. ¿Qué buscamos? Estamos buscando un/una Computer Vision Engineer para colaborar en modalidad freelance, junto con uno de nuestros principales clientes, líder en su sector a nivel nacional. Modalidad: Híbrido (2 días de trabajo en oficina) Lugar de trabajo: Madrid Duración: 6 meses Funciones Diseñar e implementar modelos de visión por computador aplicados a entornos de seguridad física. Integrar soluciones con plataformas existentes, incluyendo sistemas de videovigilancia y analítica. Colaborar con equipos multidisciplinares en la definición de requisitos técnicos y funcionales. Validar y optimizar algoritmos para entornos productivos. Documentar soluciones y participar en sesiones de transferencia de conocimiento. ¿Qué requerimientos mínimos necesitamos? Experiencia demostrable en proyectos de visión por computador (mínimo 2-3 años). Conocimiento sólido en procesamiento de imágenes, detección de objetos, seguimiento y clasificación. Dominio de frameworks como OpenCV, TensorFlow, PyTorch. Experiencia en desarrollo en Python. Familiaridad con herramientas de despliegue en entorno cloud o edge. Conocimiento de Triton Inference Server para la gestión y escalado de modelos de inferencia (imprescindible). Capacidad de lectura técnica en inglés (documentación de librerías y APIs). Idiomas: Español Nativo Inglés B2
-
05/09/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
En Rawson BPO buscamos un DevOps - Software Engineer con experiencia en infraestructura y automatización en AWS para dar soporte a proyectos de Generative AI (GenAI). Un Ingeniero de Software con fuerte enfoque en DevOps, Backend y Cloud (AWS), capaz de construir y desplegar infraestructura escalable y segura, automatizar pipelines, e integrar modelos GenAI en entornos productivos. Responsabilidades Implementar y mantener infraestructura AWS para cargas de trabajo GenAI en producción, utilizando servicios como Lambda, API Gateway, DynamoDB, Bedrock, S3, SageMaker e IAM. Desarrollar y mantener componentes GenAI reutilizables en Python, integrados con servicios AWS, incluyendo logging, monitoring y pruebas automatizadas. Diseñar y gestionar infraestructura como código mediante Terraform. Construir y mantener pipelines CI/CD con GitHub Actions (validación, testing, despliegue y chequeos post-deployment). Implementar políticas de seguridad e IAM robustas para la ejecución de cargas GenAI. Colaborar con equipos multidisciplinares (Data Scientists, Backend Engineers y DevOps). Requisitos Experiencia mínima de 5 años en entornos IT. Nivel de inglés C1. Conocimientos obligatorios: AWS (Lambda, API Gateway, Bedrock, S3, SageMaker, IAM). Desarrollo en Python para construcción e integración de componentes GenAI. Terraform para provisión y gestión de infraestructura AWS. CI/CD con GitHub Actions (testing, despliegue y monitorización).
-
05/09/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
Requisitos mínimos Perfil / Experiencia / Funciones: Al menos 3 o 4 años de experiencia reseñable en el ámbito de Big Data / Data Engineering / Ingeniería del Dato, ETL - Python, Grandes Ingestas, SQL etc... Experiencia y conocimiento demostrable con ecosistema Data con Google Cloud. Experiencia y conocimiento demostrable con Airflow, (En este caso, interesante por ende que sea Airflow Composer de GCP). Valorables: Experiencias en Migraciones, y ámbitos tipo Unix Preferiblemente experiencia o conocimiento de BigQuery. Descripción Buscamos Data Engineer con experiencia en Google Cloud y Airflow Composer (en GCP). + SQL, Ingestas, migraciones, valorable conocimientos de entorno Unix etc... y que provenga preferiblemente de conocimiento de BigQuery. Formato de teletrabajo total 100%, Proyectos de alto impacto trabajando para gran compañía final del entorno de las Telecomunicaciones. Condiciones Base: Formato de Teletrabajo total 100%. Contratación indefinida inicial por nosotros Sandav Consultores, prestando servicio para nuestra compañía cliente Especializada en servicios Importantes para grandes compañías en IT / TI, con la posibilidad de fondo en periodo de en torno al año acabar internalizado / contratado por empresa cliente. Horario habitual de oficina de 9 a 18H, viernes hasta las 15H, en principio así todo el año. Sin guardias, ni desplazamientos y con la posibilidad de fondo de flexibilización habitual de horarios de entrada y salida en función del proyecto a conocer con el avance del proceso. Salario en función de perfil / experiencia: Abierto entre ámbitos de los 45.000 hasta salarios por entornos de los 55-58.000 EUR/B Anuales aproximadamente como estimación. ¿Quieres trabajar en una empresa en la que sabemos cómo te llamas, nos preocupamos por tu bienestar y cuando necesitas algo te atendemos al momento? SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, que en resumen quiere decir que CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com
-
13/08/2025
Madrid
Seleccionamos: Data cloud engineer Snowflake Ubicación: Madrid. Buscamos un/a data/cloud Engineer altamente capacitado y motivado con experiencia en el desarrollo de tablas analíticas en data warehouse (Snowflake). El candidato/a ideal será experto en trabajar en diferentes entornos (desarrollo, pruebas y producción). También se valora mucho la experiencia con soluciones en la nube, concretamente AWS. El ingeniero de BI desempeñará un papel fundamental en la transformación de datos en ideas prácticas (actionable insights), garantizando la integridad de los datos y respaldando la toma de decisiones de negocio. Indispensable: Experiencia comprobada con el almacén de datos Snowflake, incluido el diseño de esquemas, desarrollo de SQL y optimización del rendimiento. Experiencia con soluciones en la nube de AWS, incluidos S3, Redshift, Lambda y otros servicios relevantes. Conocimiento de los servicios de AWS para almacenamiento, procesamiento y análisis de datos. Implementar y gestionar procesos ETL en el entorno de la nube. Garantizar la seguridad y el cumplimiento de los datos dentro del marco de AWS. Dominio de SQL y experiencia con procesos y herramientas ETL. Gran comprensión de los conceptos y mejores prácticas de data warehousing. Habilidades avanzadas en Tableau u otras herramientas de visualización (como Power BI), no para crear dashboards, sino para gestionar las conexiones. Experiencia con Jira para gestión de proyectos y seguimiento de problemas. Competencia en el uso de GitHub para control de versiones y colaboración. Requisitos deseados: Haber trabajado con DBT. Licenciatura / maestría en informática, tecnología de la información, ciencia de datos o un campo relacionado. Las certificaciones relevantes en Snowflake, AWS, Tableau u otras herramientas de BI son una ventaja. Conocimiento de Python u otros lenguajes de scripting para manipulación y automatización de datos. Funciones: Desarrollo de data warehouse: Diseñar, desarrollar y mantener tablas analíticas en el data warehouse de Snowflake. Optimizar los procesos de almacenamiento y recuperación de datos para garantizar un rendimiento eficiente de las consultas. Implementar técnicas de modelado de datos para respaldar los requisitos comerciales y las necesidades de informes. Informes y visualización: Traducir conjuntos de datos complejos en información visual clara y procesable. Proporcionar análisis de datos ad-hoc y soporte de informes a varias unidades de negocio. Gestión de entornos: Gestionar e implementar soluciones de datos en entornos de desarrollo, pruebas y producción. Garantizar transiciones fluidas entre entornos, minimizando las interrupciones en el acceso a los datos y la generación de informes. Realizar pruebas y validaciones exhaustivas de soluciones de datos en diversos entornos para garantizar la precisión y confiabilidad. Colaboración y Gestión de Proyectos: Colaborar con equipos multifuncionales, incluidos analistas de datos, científicos de datos y partes interesadas del negocio, para comprender las necesidades de datos y ofrecer soluciones. Utilice Jira para realizar un seguimiento y gestionar las tareas, los problemas y el progreso del proyecto. Mantener el control de versiones y administrar repositorios de código usando GitHub. Documentación y Gobierno de Datos: Documentar definiciones de datos, modelos, procesos y flujos de trabajo con fines de referencia y capacitación. Implementar y hacer cumplir políticas de gobierno de datos para garantizar la precisión, coherencia y seguridad de los datos. Realizar controles periódicos de calidad de los datos y solucionar cualquier problema relacionado con los datos. Condiciones: 40h semanales Flexibilidad de horario Rango salarial deseado máximo 56k
-
08/09/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
Description: En Grupo Digital para importante cliente sector energía necesitamos cubrir una vacante de Arquitecto DevOps >> diseño de modelos de integración continua. Responsabilidades: Diseñar, implementar y mantener pipelines de CI/CD utilizando GitHub Actions. Escribir las reglas de negocio usando Python como lenguaje fundamental. Definición de los modelos de uso de repositorios de GitFlow, asegurando mejores prácticas de versionado y colaboración. Integrar herramientas y servicios adicionales a través de APIs. Colaborar con equipos de desarrollo y operaciones para mejorar la infraestructura y los procesos de despliegue. Diseño de soluciones fundamentadas en Kubernetes Requisitos Minimo 4 años de experiencia como ARQUITECTO DEVOPS Amplia experiencia en diseñas soluciones de CI CD Haber sido integrantes de un equipo multidisciplinar teniendo la responsabilidad de diseñas soluciones de cicd Experiencia en diseño, gestión e implementación de workflow fundamentados en GitHub Actions o equivalente como Azure Devops Experiencia demostrable con repositorios Git utilizando la línea de comando Experiencia en desarrollo en Python para automatización y desarrollo de lógica de negocio Experiencia en contenedores y orquestadores como Docker y Kubernetes, preferiblemente en un entorno cloud (EKS y/o AKS). Conocimiento de prácticas de seguridad en DevOps y DevSecOps. Excelentes habilidades de resolución de problemas y capacidad para trabajar en equipo. Gestión de repositorios de artefactos como JFrog-Artifactory. Valorable Experiencia en diseñar arquitecturas Cloud (Terraform) Liferay Client Extensions Certificaciones relevantes en GitHub, Python, o DevOps. Experiencia en metodologías ágiles y colaboración en equipos multifuncionales. Habilidad para comunicar conceptos técnicos a audiencias no técnicas. ¿Qué ofrecemos? Salario competitivo en función de la experiencia Contrato indefinido u Opción de Contrato Mercantil 22 días laborables de vacaciones Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte Formación en Tecnología y Soft Skills "Programa de referidos": BONUS por candidatos recomendados que se incorporen con nosotros. Ubicación España. Es necesario que resida en España -- puntualmente viaje a clienteModalidad Remoto. Horario de 7:30 a 15:30 horas Inicio septiembre 2025 en cuanto a nosotros .... Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de desarrollo aplicaciones, sistemas, Big Data , Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Puedes ampliar información de la compañía en nuestra web www.grupodigital.eu
-
22/08/2025
Madrid
Porque trabajar en Sopra Steria, también es sentir Sopra Steria. Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España. Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente. Tenemos pasión por lo digital y al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo. Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo! Descripción del empleo ¿Qué reto proponemos? Participación, junto con el equipo de Enterprise Architecture, en la definición e implementación de estándares de publicación y securización de APIs en Apigee. Configuración y mantenimiento de la plataforma y documentación de los procesos Realización de pruebas de concepto y puestas en producción Requisitos ¿Qué buscamos? REST & SOAP Apigee platform Swagger & OpenAPI Best practices creación de API specifications Publicación de API Proxies Desarrollo de políticas custom Mecanismos de seguridad (OpenID, Oauth2, JWT Bearer, TLS, SAML, ...) Analítica de APIs y troubleshooting Automatización de publicación con herramientas DevSecOps. Conocimientos de desarrollo en Python y Golang. Información adicional ¿Qué tenemos para ti? Contrato indefinido y jornada completa 23 días de vacaciones Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más! Seguro de vida y de accidentes Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación) Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas Onboarding personalizado y detallado. Te acompañamos en todo momento para que te sientas #soprano desde el primer momento. Oficina con espacios reservados al ocio. ¡Trabajo y diversión unido! Compañerismo y buen ambiente, el poder de la unión lo tenemos presente. Y lo más importante...Tienes la posibilidad de desarrollar tu carrera profesional con nosotros: Crearemos juntos un plan de carrera personalizado. Te formarás, marcaremos objetivos y llevaremos a cabo un seguimiento para asegurarnos de que lo conseguimos juntos. Escuchamos tus prioridades y luchamos por ellas. ¡Aquí tu voz importa! ¡Únete a nosotros y sé parte de algo más! The World Is How We Shape It Adquirimos el compromiso de respetar la diversidad, creando un ambiente de trabajo inclusivo y aplicando políticas que favorezcan la inclusión y promuevan el respeto social y cultural en cuestiones de género, edad, funcional, orientación sexual y religión con igualdad de oportunidades.
-
12/08/2025
Madrid
INECO busca un perfil de Threat Hunter (Ciberseguridad ) para un cliente con nosotros en la administración pública. Rol: Threat Hunter (Ciberseguridad) FUNCIONES: Realizar 'threat hunting' para informar y proteger al cliente - Gestión del motor de gestión de amenazas (threat engine): * Revisión diaria de indicadores de alertas del motor de amenazas e indicadores de compromiso. * Configuración de reglas del sistema. - Análisis diarios de amenazas y recopilación de fuentes de ciberinteligencia. * Identificación de nuevas vulnerabilidades críticas y análisis de aplicación. - Apoyo en investigación de ciberataques. - Definición de reglas para identificación de malware REQUISITOS: Dos (2) años de experiencia en el ámbito TIC. Un (1) año de experiencia en ciberseguridad. Threat Hunting y análisis de malware. Detección de anomalías, vulnerabilidades y técnicas de ataque. Experiencia en SIEMs (herramientas de correlación de logs) como Microsoft Sentinel, QRadar o Splunk. Análisis eventos de seguridad y LOGs. Gestión de alertas y escalado de incidentes. Conocimientos de Windows Deseable: Pen testing y hacking ético. Conocimientos de herramientas de análisis de malware. Conocimientos de reglas SIGMA, SNORT o YARA. Conocimientos de otras plataformas: Linux/Mac/Android. Condiciones Laborales: Lugar de Trabajo: Madrid, España. Tipo de Contrato: Determinado. Salario: A convenir de acuerdo a la experiencia.
-
08/09/2025
Madrid
Desde CMV Consultores te brindamos las mejores oportunidades, en importantes clientes. Arquitectura Cloud AWS con sólida experiencia en el diseño, desarrollo e implementación de soluciones basadas en microservicios utilizando Java. El candidato ideal tiene un profundo conocimiento de la plataforma AWS, es capaz de diseñar arquitecturas escalables y resilientes, y posee experiencia en la creación y despliegue de microservicios en entornos de producción. Este arquitecto debe tener una mentalidad orientada a soluciones, ser capaz de liderar equipos técnicos y estar alineado con las mejores prácticas de desarrollo y DevOps. Conocimientos Técnicos Requeridos: 1) AWS (Amazon Web Services): Profunda experiencia con servicios de AWS: EC2, Lambda, S3, RDS, DynamoDB, API Gateway, VPC, y EKS (Elastic Kubernetes Service). Capacidad para diseñar y desplegar arquitecturas serverless, basadas en contenedores y altamente escalables. Familiaridad con las mejores prácticas de seguridad en AWS 2)Java y Microservicios: Dominio de Java y Spring Boot para el desarrollo de aplicaciones de microservicios. Experiencia en el diseño, implementación y despliegue de arquitecturas basadas en microservicios (al menos 5 años). Conocimiento de APIs REST y colas de mensajes y eventos (SNS/SQS, Kafka, etc). Experiencia en patrones de diseño aplicables a microservicios, como Saga, CQRS, Circuit Breaker, y Event Sourcing. 3) Contenedores y Orquestación: Amplia experiencia con Docker y la orquestación de contenedores mediante Kubernetes (EKS) en entornos de producción. Familiaridad con la creación y administración de clusters de contenedores, monitoreo y escalabilidad automática (auto-scaling). 4)DevOps y CI/CD: Conocimiento avanzado de herramientas de Integración Continua/Despliegue Continuo (CI/CD), como Jenkins, GitLab CI, AWS CodePipeline, 4) Bases de Datos: Experiencia en arquitecturas de solución fundamentadas en bases de datos relacionales y NoSQL, especialmente PostgreSQL y DynamoDB. MODALIDAD DEL SERVICIO: Híbrido Madrid o al menos los 3 primeros meses debe tener disponibilidad de acudir dos días a la oficina por temas de facilitar la entrada en el servicio. ¿Qué se ofrece? Contrato indefinido y salario competitivo según valía. Proyecto a largo plazo
-
03/09/2025
Madrid
BUSCAMOS: Especialista centralización de Logs TAREAS Y REQUISITOS IMPRESCINDIBLES : 2 años en administración, soporte y mantenimiento de Splunk o similar 1 año en scripting (Powershell, Visual Basic, Python o Perl) Conocimientos de bases de datos Oracle y/o DB2 Deseables: ITM, Omnibus, SCOM, Linux y Windows, JIRA Idiomas : Inglés B2 Ofrecemos: Contrato modalidad freealance Tarifa 200- 240 eur/jornada en función de expperiencia aportada proyecto a largo plazo Recurrencia en proyectos Ubicación: Madrid. Presencial·