La oferta de trabajo Technical Lead Azure ya no está disponible

Aquí tienes ofertas de trabajo similares:

  • 02/06/2025

    Madrid

    COORDINADOR/a de PROYECTOS con INGLÉS (C1 En la actualidad, estamos seleccionando, para INCORPORACIÓN A PLANTILLA DE CLIENTE FINAL, dedicada a la ingeniería e integración de sistemas con proyección internacional. Estamos buscando un/a COORDINADOR/a de PROYECTOS apasionado/a y con mucha energía para unirse a este equipo en Pozuelo de Alarcón. Si tienes al menos 2-3 años de experiencia y un nivel de inglés C1, ¡esta podría ser la oportunidad perfecta para ti! ¿Qué se ofrece? Incorporación: Contrato con empresa final desde el primer día. Teletrabajo: Después de pasar 6 meses de antigüedad y completar tu onboarding y formación, podrás disfrutar de un día a la semana de teletrabajo. Ambiente internacional: Colabora con un equipo diverso y dinámico en un entorno que fomenta el crecimiento profesional. Desarrollo profesional: Con posibilidades de formación continua y crecimiento dentro de la empresa. ¿Cuál es tu misión? Como COORDINADOR/a de PROYECTOS, serás el pilar fundamental en la definición y seguimiento de todas las actividades necesarias para la ejecución de nuestros proyectos de implantación. Tu misión será optimizar recursos y asegurarte de que todo fluya como la seda. Responsabilidades principales Planificar y priorizar actividades, plazos y responsables de cada uno de los proyectos y dar seguimiento continuo, mantener al día planning y estado de proyectos. Reuniones, tanto presenciales como telemáticas, con personal interno de la empresa, con proveedores y constantemente con clientes. Análisis y control de costes, análisis de requisitos a través de pliegos y ofertas de clientes activos, analizar desviaciones en plazos y costes de los proyectos para concluir mejoras. Coordinar y supervisar labores de técnicos asignados al proyecto y fomentar su formación continua, documentar procesos, informes, actas de reunión, acuerdos, replanteos, estados de proyecto, análisis de costes, etc. Anticipar, identificar y evaluar posibles riesgos que puedan afectar el desenvolvimiento del proyecto, y proponer estrategias de mitigación a fin de que se cumplan los objetivos establecidos. Desbloquear los proyectos ante cualquier impedimento que pueda generarse para su correcta ejecución en plazo, e informar a todas las partes involucradas. Mantener comunicación activa con departamento de I+D de la empresa para definir necesidades de integración y conocer las nuevas funcionalidades y participar en capacitaciones o talleres de entrenamiento. Horario Lunes-Jueves 8-8.30H, comida 14-15h, salida de 17:30-18h, viernes 8-15h, Jornada Intensiva verano: primera semana de Junio, julio, agosto, primera sept 8-15h, Centro de trabajo Pozuelo de Alarcón, con aparcamiento para empleados, y si se va en transporte público se tiene acceso con metro ligero, diferentes buses,... Proyectos: Automatización y Digitalización. Lo que se espera de ti Experiencia: Mínimo 2-3 años en roles similares de gestión de proyectos. Conocimientos técnicos: Dominio de herramientas de ofimática, manejo de servidores, SQL y diferentes lenguajes de programación. Inglés: Nivel C1. ¡Querrás compartir tus ideas e innovaciones con compañeros de diferentes partes del mundo! Participación en proyectos internacionales. Otros requisitos: Carnet de conducir y vehículo propio. Disponibilidad para viajar, ya que es posible que necesites desplazarte en función de los proyectos. Viajes muy puntuales, de duración máxima 1-2 semanas. Valorable: Experiencia previa en el sector de sanidad, farmacia y/o control de almacenes. Si has trabajado en estos ámbitos, ¡queremos conocerte! ¡Esperamos tu CV! Si estás listo/a para dar el siguiente paso en tu carrera y unirte a un equipo que valora la innovación, la colaboración y el crecimiento, esta es tu oportunidad. ¡Esperamos conocerte pronto!

  • 22/05/2025

    Madrid

    Description: Desde Grupo Digital, buscamos un/a Data Engineer para trabajar con uno de nuestros grandes clientes. Funciones: Migración de la Arquitectura Soporte a los Data Engineers. Requisitos: Azure Data Factory Azure Databricks Azure Storage Azure DevOps Pipelines para CI/CD Python SQL Server Conocimientos de: Arquitecturas Medallion Modelado Kimball PowerBI Requisitos deseables: Kafka Debezium ¿Qué es lo que le ofrecemos? Salario competitivo en función de la experiencia Contrato indefinido u Opción de Contrato Mercantil 22 días laborables de vacaciones Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte Formación en Tecnología y Soft Skills Programa de referidos: 500 EUR por candidatos recomendados que se incorporen con nosotros Lugar de trabajo: Madrid. Modalidad: Remoto. Salario: 35 - 45.000EUR brutos anuales (según experiencia). Duración: 1 años con posibilidad de estabilidad. Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Nos comprometemos estar a tu lado en todas las fases del proyecto, para asegurarnos que creces profesionalmente con nosotros, y que tu aportación cuenta. ¿Quieres estar al día con las últimas tecnologías y buscas nuevos desafíos? ¡Envíanos tu CV y nos ponemos en contacto contigo!

  • 04/06/2025

    Madrid

    Desde CMV Consultores te brindamos las mejores oportunidades, en importantes clientes. Desarrollar soluciones en Python robustas y mantenibles, aplicando buenas prácticas (clean code, pruebas unitarias, patrones de diseño) para construir APIs, Azure Functions y procesos de backend escalables. Diseñar, implementar y optimizar pipelines de datos utilizando Spark y Databricks, aplicando procesos ETL/ELT eficientes y asegurando la calidad, trazabilidad y gobierno del dato. Integrar y operar bases de datos relacionales, NoSQL y vectoriales (SQL Server, MongoDB, CosmosDB, Snowflake, Azure AI Search), optimizando consultas y diseñando modelos de datos adaptados a los casos de uso. Orquestar flujos de datos y procesos en Azure, utilizando servicios como Data Factory, Azure Functions, Data Lake, Key Vault y Log Analytics para construir arquitecturas modulares, seguras y monitorizadas. Desplegar y mantener entornos de integración y entrega continua (CI/CD) en Azure DevOps o GitHub Actions, creando pipelines YAML automatizados para pruebas, análisis estático, despliegues y versionado. Colaborar en entornos controlados por GIT, siguiendo metodologías como Git Flow o trunk-based development, integrando ramas y resolviendo conflictos de forma eficiente. Aplicar principios de observabilidad y gobierno del dato, incluyendo el uso de métricas, logs, auditoría, gestión de permisos (Entra ID), y definición de buenas prácticas de operación en la nube. Explorar e integrar tecnologías de IA generativa y ML en producción, incluyendo uso de APIs de OpenAI, modelos vectoriales, endpoints en Azure Machine Learning y servicios cognitivos como Document Intelligence. ¿Qué se ofrece? Teletrabajov3 días (2 días a la oficina zona Delicias) Contrato indefinido y salario competitivo según valía. Proyecto a largo plazo

  • 30/04/2025

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    Rol: Analista BI (Remoto) Funciones Desarrollo de nuevos sistemas de análisis, explotación de modelos analíticos, desarrollo de nuevos indicadores, mejoras del sistema de Cuadro de Mando, diseño de la arquitectura y procedimientos de explotación del producto PowerBI, mantenimiento, creación de cubos OLAP y modelos tabulares. Requisitos Cuatro (4) años de experiencia con Microsoft SQL Server. Cuatro (4) años de experiencia con Procesos ETL. Cuatro (4) años de experiencia con Microsoft SQL Server Integration Services. Cuatro (4) años de experiencia con Microsoft SQL Server Reporting Services. Dos (2) años de experiencia con Microsoft Power BI Desktop, Services, Excel (Powerpivot, Power View, Power Query) Conocimientos técnicos deseable. Desarrollo .NET con C#. Python. Experiencia con Azure o AWS. Microsoft SQL Server Analysis Services (SSAS) enfoque tabular o multidimensionales. Experiencia con BIML. Titulación: Informática - Formación Profesional - Desarrollo de Aplicaciones Web - Matemáticas y Físicas. Condiciones Laborales: Lugar de Trabajo: España - Remoto. Tipo de Contrato: A Término Indefinido / determinada. Salario: A convenir de acuerdo a la experiencia.

  • 28/05/2025

    Madrid, Otro

    Description: Desde Grupo Digital necesitamos cubrir para importante cliente del sector Retail Técnico con expertise MLOps y AIOps en Azure 2 Vacantes ( 1 Perfil senior ) Responsabilidades y funciones: Perfil técnico con expertise en MLOps y AIOps. Desarrollo IA o Gen AI dentro del equipo, sobre Azure siempre. Ayuda para llevar los proyectos que desarrollan ellos, y sus modelos, a producción, a la parte corporativa, y aquí la parte de control del ciclo de vida es complicado para ellos. interactuar con desarrolladores de sistemas Ayuda en la postimplantación respecto a modelos, una vez subido a PRO, si pasa algo con los modelos, que puedan apoyar al equipo de producción.>>Lo que están viendo es que sí hay matrices de escalado para el producto final, pero no para los modelos que hay por debajo, que les llegan más tarde, Gestión de ciclo de vida del despliegue Gestión de postimplantación Tareas operativas semanales, monitorización, observabilidad, etc... con reporte a negocio de KPIs técnicos - Incidencias que surjan, primera revisión, resolución de incidencias sencillas, gestión de la resolución de las demás. Requisitos Experiencia demostrable al menos 5 años el senior y 3 años el otro tecnico en puesto similar Licenciatura o Grado Superior Expertise en MLOps y AIOps Manejo despliegues en Azure Conocimientos de · BitBucket (Github) · Jenkins (GitActions) · Helm · Kiuwan o alguna de análisis de código Conocimientos de Python Conocimientos de SQL Valorable nociones de Confluence, Jira,Sonarqube,Openshift Azure Devops Microsoft Teams Katalon Prometeus, Grafana,Kibana Urban code Active directory KafkaAKS INGLES minimo B1 ¿Qué es lo que le ofrecemos? Salario competitivo en función de la experiencia Contrato indefinido. u opción de Contrato Mercantil 22 días laborables de vacaciones Plan de retribución flexible: Seguro médico, etc Formación en Tecnología y Soft Skills INICIO JUNIO 2025 UBICACION ** MADRID >> REMOTO parcial 3 dias oficina + 2 remoto En cuanto a nosotros .. Grupo Digital Somos un grupo de empresas tecnológicas, formado actualmente por unos 100 profesionales, en distintas áreas: desarrollo, sistemas, ingeniería automática, consultoría. erp´s, big data, inteligencia artificial, proyectos cloud, Puedes ampliar informacion de la compañia en nuestra web www.grupodigital.eu Minimum requirements: #MLOps #AIOps #Azure #inteligencia artificail

  • 22/05/2025

    Madrid

    What we look for? We are looking for a Senior DevOps, the professional will take technical ownership of critical systems and drive architectural direction across multiple teams. In our agile, DevOps -centric environment, you'll lead the end-to-end lifecycle of high-impact services shaping design, delivery, and operations, while mentoring engineering leads and influencing best practices at scale. Hybrid position in Madrid. Key Responsibilities: CI/CD Leadership: Architect and optimize end-to-end pipelines (GitLab CI, Jenkins, Azure DevOps); define reusable templates and governance. Cloud-Native Platforms: Design and manage Kubernetes/Docker/Helm environments in Azure/AWS/GCP; implement best practices for ingress, service meshes, and TLS. Feature Ownership: Coordinate feature lifecycles with stakeholders; resolve sprint-cycle issues and champion modernization over legacy complexity. Innovation & POCs: Lead evaluations of new tools (GitOps, service mesh, serverless); drive adoption alongside the core platform team. "Everything as Code": Automate infrastructure, security policies, and monitoring using IaC (Terraform, Octopus Deploy) and scripting (PowerShell/Bash/Python). Observability: Build logging, metrics, and tracing (Prometheus, Grafana, Dynatrace, ELK) with proactive ing and self-healing. Documentation & Training: Maintain clear runbooks and deliver hands-on workshops to upskill colleagues. Mandatory requirements: 8 years building and scaling distributed systems in agile/DevOps organizations. Expert in Java, Spring Boot, RESTful microservices, and event-driven architectures (Kafka, Avro). Strong frontend acumen with React, JavaScript/TypeScript, and API-first integration (OpenAPI). Deep familiarity with Kubernetes orchestration, container security, and infrastructure as code. Proven track record designing for high availability, performance, and maintainability. Skilled at performance tuning, capacity planning, and defining non-functional requirements. Infrastructure & DevOps: Kubernetes (PKS), Docker, Helm, Terraform English C1 What can we offer? 23 days of Annual Leave plus the 24th and 31st of December as discretionary days! Numerous benefits (Heath Care Plan, Internet Connectivity, Life and Accident Insurances). `Retribución Flexible´ Program: (Meals, Kinder Garden, Transport, online English lessons, Heath Care Plan...) Free access to several training platforms Professional stability and career plans UST also, compensates referrals from which you could benefit when you refer professionals. The option to pick between 12 or 14 payments along the year. Real Work Life Balance measures (flexibility, WFH or remote work policy, compacted hours during summertime...) UST Club Platform discounts and gym Access discounts If you would like to know more, do not hesitate to apply and we'll get in touch to fill you in details. UST is waiting for you! In UST we are committed to equal opportunities in our selection processes and do not discriminate based on race, gender, disability, age, religion, sexual orientation or nationality. We have a special commitment to Disability & Inclusion, so we are interested in hiring people with disability certificate.

  • 25/04/2025

    Madrid

    Description: From Grupo Digital, we are looking for a Data Engineer Scala Spark for a stable project. Requirements: Experience supporting / overseeing mentoring and guiding junior developers, including providing guidance on best practice / technical solutions, peer reviews and documentation of testing Implement and management of scalable big data infrastructure using IaC such as Terraform AWS expertise in services such as EMR, EC2, Lambda, Step Functions, Glue Experience of Big Data Technologies - well rounded experience of Hadoop, Spark/Scala and NoSQL databases Practical experience designing and monitoring batch processes Proficiency in scripting languages such as Bash & Python Unix / Linux experience Worked with Code Repositories as GIT, Maven, ... DevOps Knowledge (Jenkins, Scripts, ...) Tools used for deploying software into environments, use of Jira. High level of Spanish and English. Nice to have skills: Analyst Skills: Being able to translate technical requirements to non-technical partners and to deliver clear solutions. Been able to create test cases scenario SQL advance knowledge: Been able to test changes and issues properly, replicating the code functionality into SQL Documentation: Experience of carrying out data and process analysis to create specifications documents Finance Knowledge: Have a experience working in Financial Services / Banking organisation with an understanding of Financial Services / Retail, Business and Corporate Banking Control-m solid experience: Been able to create jobs, modify parameters What do we offer you? Competitive salary based on experience Permanent contract or Freelance Contract Option 22 working days of vacation Flexible compensation plan: Medical insurance, childcare vouchers, transportation vouchers Training in Technology and Soft Skills Referral program: EUR500 for recommended candidates who join us Location: Madrid. Full remote. Salary to be negotiated based on experience. Grupo Digital We are a group of technology companies, currently made up of around 200 professionals in various areas: development, systems, automation engineering, consulting, and more. If you wish to start your career in web development and be part of a dynamic team, we look forward to receiving your application!

  • 12/06/2025

    Comunidad Valenciana

    ¡Hola! Somos WonderBits, desarrollo de software, analítica y automatización con Machine Learning e Inteligencia Artificial en Valencia. ✅ Nos enfocamos principalmente en diseño y desarrollo de soluciones a medida para empresa en BI, Transformación Digital, Analítica y Optimización con Machine Learning e Inteligencia Artificial, con una cuidada Experiencia de Usuario y Usabilidad. ✅ Desarrollamos actualmente proyecto propio, software para terceros con contratos de larga duración, proyectos I+D+i en varios sectores y estamos en fase de internacionalización de varias plataformas junto con empresas de referencia. www.wonderbits.net Buscamos Data Engineer con conocimientos de modelado de datos, ETL, Data Warehousing, Data Analytics. Centrad@ en flujos de datos, pipelines ETL y orquestación de procesos. Se valorará conocimiento de ETL con Apache Airflow, Dagster, Azure, GCP, PostgreSQL, MS SQL Server, y pipelines de datos versionadas por código, será un plus el conocimiento de herramientas como Apache Nifi. Remuneración / Ofrecemos ✅ Rango económico: 30 - 45KEUR ✅ Ambiente de trabajo dinámico e inclusivo ✅ Proyectos innovadores y con las últimas tecnologías ✅ Presupuesto para formación: 800EUR/año ✅ Horario y calendario flexibles. ✅ Contrato indefinido. ✅ Modelo de asistencia híbrido (2 días in-office) Responsabilidades Diseño de pipelines eficientes de extracción, transformación y carga de datos (ETL) para analítica de múltiples tipos de fuentes, ya sean BBDD, APIs o RPAs. Diseño de modelos de datos y Data Warehouses para analítica y consolidación de datos. Trabajo cercano con los clientes para entender el negocio y cómo aportar valor con los datos. Conocimientos Data Engineering, Data Modeling, y Extract Transform Load (ETL) Data Warehousing y Data Analytics Experiencia con herramientas de data modeling como Erwin or ER/Studio Experiencia con conceptos de Data Warehousing como star schema, snowflake schema, etc. Experiencia con herramientas de visualización de datos como Power BI Grado en Ingeniería Informática, Telecomunicaciones o relacionado. Los candidatos deberán tener excelentes habilidades de comunicación y capacidad de trabajar independientemente y como parte de un equipo. Conocimiento con cloud computing, big data o machine learning será un plus a considerar. Equipo Se formará parte del equipo general de WonderBits donde se abordan proyectos para clientes de diversa envergadura para los que solemos convertirnos en partners tecnológicos. Cuidamos de que las aspiraciones profesionales de cada uno vayan pudiendo realizarse gracias a la evolución que fomentamos, formación pagada, así como la transferencia de conocimientos entre compañeros y el cambio a proyectos más afines a lo largo de la trayectoria con nosotros. En WonderBits valoramos tanto la capacidad técnica como la capacidad de trabajo en equipo. Cultivamos un entorno de trabajo agradable que fomenta la cooperación, transferencia de conocimientos y el descubrimiento continuo de nuevas técnicas y mejora profesional. Trabajamos principalmente con tecnologías web en front-end con TypeScript, Angular, IONIC, PWA, en back-end en Nest.js, Node.js, .Net C# y Python y en Data con Apache Airflow, PostgreSQL, Timescale, Azure Cosmos for PostgreSQL, Google Compute Cloud SQL y Big Query. Metodologías Utilizamos una adaptación flexible de Kanban con Scrum, con un backlog contenido y planteado por proyecto. Usamos TDD para desarrollo de algorítmica y funcionalidades críticas y CI/CD para la rápida validación y despliegue de cambios a los entornos de producción. También hacemos pair programming y reuniones de diseño y estructura de forma regular para definir y consensuar bloques lógicos. Trabajamos con versionado Git, aplicaciones de gestión de proyectos e interacción con el cliente como Taiga.io y Jira. Prototipado a nivel gráfico con nuestro equipo de diseño y análisis junto con el cliente usando herramientas como Invision. Perfil laboral Puesto a tiempo completo (40h/semana) con contrato indefinido. Horario de trabajo Nuestro horario de trabajo es flexible, permitiendo gestionar las horas semanales para por ejemplo salir antes los viernes, conciliar o adecuarse a cursos que se quieran realizar. Presencia física / remota El puesto es híbrido, con 3 días en remoto, por lo que buscamos a alguien de la zona de Valencia. ¡Te esperamos! Saludos del equipo de WonderBits.

  • 06/05/2025

    Madrid

    Buscamos perfil DevOps Mid para proyecto estable en Madrid Capital (zona Nuevos Ministerios), y con experiencia de 2 a 3 años aproximadamente en puesto similar y con experiencia en Kubernetes, Github + Jenkins, y cuestiones Linux de Scripting y valorables conocimientos de desarrollo Backend). Condiciones base: Proyecto estable y orientación a largo plazo. Contratación por Nosotros: Sandav Consultores, en prestación de servicios para compañía cliente consolidada en su sector. Formato mixto entre teletrabajo y presencialidad en oficinas de Nuevos Ministerios - Azca, (Madrid). (2 o 3 días a la semana acudiendo a oficinas). Horario de oficina habitual con posibilidades de flexibilidad de entrada y de salida a concretar en fases posteriores. Salario Bruto Anual a contemplar entre ámbitos de 27.000 a entornos de 35.000 o 38.000 EUR/B Anuales (Aproximadamente), podrían llegar a contemplarse candidaturas levemente por encima si el perfil lo justifica. Funciones Principales / Perfil: Experiencia de 2-3 años en automatización de procesos sobre Jenkins (valorable otros entornos como Github Action, Azure Devops, etc.) Se requieren conocimientos en: Scripting sobre sistemas Linux Desarrollo backend (APIs sobre diferentes lenguajes como Python, Java, etc.) Conocimientos sólidos de GIT Uso/despliegue de aplicaciones sobre kubernetes (valorables conocimientos en versiones K8S en diferentes clouds y OCP3 y OCP4) Conocimientos de GCP (se valorará conocimiento de otras clouds y conocimientos de arquitectura sobre ellas) Nivel avanzado de herramientas como Linux, Java, Python y Git. SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, que en resumen quiere decir que CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com

  • 10/06/2025

    Cataluña

    En Krell Consulting, nos encontramos en la búsqueda de un DevOps Data Python, para unirse a nuestro equipo, en proyecto del sector seguros, en modalidad remota. PERFIL: Senior DevOps Data Engineer SECTOR: Seguros MODALIDAD DE TRABAJO: Remota 100% (desde España REQUERIDO: Fluent English (B2+ Minimum 3+ years of experience in data engineering, with a focus on building and managing ETL pipelines. Experience working as Data Engineering and DevOps for Infrastructure (IaC Terraform & Applications are required. Knowledge of data governance and data security best practices. Experience with SQL:PostgreSQL(Vector db, NoSQL:CosmosDB, MongoDB (both: creation, querying, optimization, deployment with Terraform. Proven experience with Microsoft Azure Cloud environment and services (e.g., AI Service, Azure Data Factory, Azure Synapse Analytics. Familiarity with DevOps practices and CI/CD pipelines. Knowledge on infrastructure deployment via Terraform. ML deployment. Python refactoring code. Working with other engineers. Deploying applicaiton. ML deployment. Planning and implementing releases. Terraform development. OFRECEMOS: Contrato indefinido. Si estás interesad@, no dudes en aplicar a la posición. ¡Esperamos recibir tu postulación y conocerte pronto!