L'oferta de treball Administrador/a Hadoop #Cloudera (Madrid) ja no està disponible
Aquí hi són algunes ofertes similars:
-
25/04/2025
Madrid
Description: From Grupo Digital, we are looking for a Data Engineer Scala Spark for a stable project. Requirements: Experience supporting / overseeing mentoring and guiding junior developers, including providing guidance on best practice / technical solutions, peer reviews and documentation of testing Implement and management of scalable big data infrastructure using IaC such as Terraform AWS expertise in services such as EMR, EC2, Lambda, Step Functions, Glue Experience of Big Data Technologies - well rounded experience of Hadoop, Spark/Scala and NoSQL databases Practical experience designing and monitoring batch processes Proficiency in scripting languages such as Bash & Python Unix / Linux experience Worked with Code Repositories as GIT, Maven, ... DevOps Knowledge (Jenkins, Scripts, ...) Tools used for deploying software into environments, use of Jira. High level of Spanish and English. Nice to have skills: Analyst Skills: Being able to translate technical requirements to non-technical partners and to deliver clear solutions. Been able to create test cases scenario SQL advance knowledge: Been able to test changes and issues properly, replicating the code functionality into SQL Documentation: Experience of carrying out data and process analysis to create specifications documents Finance Knowledge: Have a experience working in Financial Services / Banking organisation with an understanding of Financial Services / Retail, Business and Corporate Banking Control-m solid experience: Been able to create jobs, modify parameters What do we offer you? Competitive salary based on experience Permanent contract or Freelance Contract Option 22 working days of vacation Flexible compensation plan: Medical insurance, childcare vouchers, transportation vouchers Training in Technology and Soft Skills Referral program: EUR500 for recommended candidates who join us Location: Madrid. Full remote. Salary to be negotiated based on experience. Grupo Digital We are a group of technology companies, currently made up of around 200 professionals in various areas: development, systems, automation engineering, consulting, and more. If you wish to start your career in web development and be part of a dynamic team, we look forward to receiving your application!
-
28/05/2025
Madrid
📍Madrid, España (Modalidad híbrida: 1 día presencial) Responsabilidades: Participar en proyectos de diseño e implementación de repositorios de datos (DWH, cubos OLAP). Desarrollar y mantener procesos ETL (extracción, transformación y carga). Diseñar y elaborar informes y dashboards interactivos. Apoyar en la construcción de cuadros de mando integrales. Trabajar con equipos multidisciplinarios, promoviendo la colaboración, análisis y generación de insights. Requisitos: Formación y experiencia: Ingeniería o licenciatura en: Informática, Sistemas, Software, Computación, Datos o Analítica de Negocios. Mínimo 3 años de experiencia profesional en BI o áreas relacionadas. Conocimientos imprescindibles: Dominio de SQL, modelado de datos y herramientas de ETL. Experiencia con herramientas BI: Power BI y Cognos. Conocimientos en Python o R (valorable). Experiencia en visualización de datos, construcción de dashboards y reportes ejecutivos. Familiaridad con herramientas y ecosistema de Cloudera (Hadoop, Hive, Impala, Nifi). Capacidad de trabajo con datos estructurados y no estructurados. Conocimientos deseables: Máster en Business Intelligence, Data Science o campos afines. Conocimientos en minería de procesos. Habilidades de comunicación efectiva para públicos técnicos y no técnicos. Enfoque analítico, pensamiento crítico y orientación a resultados. Proactividad y pasión por el aprendizaje continuo. ✨ Beneficios de ser un Happener Contrato indefinido Modalidad hibrido Madrid. Rango salarial hasta 35K 23 días de vacaciones hábiles por año laborado Apiux Academy: formación, entrenamientos técnicos e interacción con la comunidad tech para desarrollar tu talento al máximo Convenios con Open English Convenios con Coderhouse Certificaciones patrocinadas con Google Cloud, AWS, ISTQB Día de cumpleaños libre Bonos por nacimiento, matrimonio y referidos Happy Points: sistema de puntos canjeables por días libres Proyectos de larga duración y, en algunos casos, de alcance internacional Y-Share: posibilidad de ser dueño de una parte de la compañía 💡 En Apiux nos identificamos como una fábrica de talento con fuerte orientación al negocio Continuamente brindamos espacios a las nuevas generaciones para mostrar y desarrollar ideas, conocimientos y exponer modelos de negocios innovadores enfocados en cubrir, siempre con una propuesta de valor, las necesidades de nuestros clientes. 🔍 ¿Qué hacemos? Posicionamos el mejor talento con un enfoque estratégico, y nos esforzamos por entender a cabalidad la cultura y valores de cada uno de nuestros clientes, con el fin de hacer el match perfecto entre cliente y talento. Velamos, además, por brindar una candidate experience y employee experience ejemplar para nuestros futuros Happener. 🐝 Ser un Happener Significa pertenecer a una familia con principios integrales, donde el espíritu ágil, colaborador e innovador son el combustible que día tras día le inyectamos a nuestro corazón para hacer las cosas cada vez mejor. 🚀 Nuestros principios: We Care: Nos importa la gente, sus valores, principios, aprendizajes y creencias. We are not comfortable by being comfortable: No nos conformamos con la comodidad, queremos cambio, retos y tomar riesgos. We create and develop: Nuestro ADN está el crear oportunidades, servicios y productos para impactar al mundo. Desarrollamos talento y código. Crecimiento: Todos los happeners tenemos mentalidad de fundadores y dueños de Apiux. ¡Si Apiux crece, todos crecen! We embrace diversity: Incentivamos una cultura que hace que todos, sin importar las diferencias, sientan un ambiente de equidad, oportunidad e inclusión. ¿Quieres ser un Happener e impactar el futuro con la Tecnología y tu Talento? ¡Esperamos tu postulación! Sé parte de la colmena, sé parte del cambio. 🐝🚀
-
22/04/2025
Madrid
¿Qué buscamos? Más de 3 años de experiencia como ingeniero de datos o en un puesto similar Gran dominio del lenguaje de programación Scala y PySpark Amplia experiencia con tecnologías de big data, en particular Apache Spark y el ecosistema Hadoop Sólidos conocimientos de bases de datos SQL y NoSQL Experiencia en modelado de datos, procesos ETL y conceptos de almacenamiento de datos Experiencia con sistemas de control de versiones, preferiblemente GIT. Familiaridad con plataformas en la nube como AWS, Azure o GCP Conocimiento de las mejores prácticas de seguridad y privacidad de datos Descripción Porque trabajar en Sopra Steria, también es sentir Sopra Steria. Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España. Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente. Tenemos pasión por lo digital y al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo. Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo! En Sopra nos gustaría incorporar a un par de Data Engineer con experiencia en Scala y PySpark para unirse a nuestro dinámico equipo. En este puesto, será responsable de diseñar, implementar y mantener canalizaciones de datos e infraestructuras robustas para apoyar los procesos de toma de decisiones basados en datos de nuestra organización. Desarrollar y optimizar los procesos ETL utilizando Scala y PySpark para manejar el procesamiento de datos a gran escala Colaborar con científicos y analistas de datos para comprender los requisitos de los datos y entregar conjuntos de datos de alta calidad Construir y mantener canalizaciones de datos escalables utilizando Apache Spark y otras tecnologías de big data Implementar controles de calidad de datos y sistemas de supervisión para garantizar la precisión y fiabilidad de los datos El horario es flexible de oficina y el trabajo se realiza de manera híbrida, siendo 1 o 2 días por semana en oficina y el resto en casa.. Ubicación: Las Tablas
-
30/05/2025
Andalusia
Requisitos mínimos Titulación universitaria en Ingeniería Informática, Telecomunicaciones, Estadística, Matemáticas o similar. 3 ó 4 años de experiencia como Data Engineer, Técnico/a de BI, o similar Experiencia en desarrollo de ETL (ODI, Pentaho o herramientas similares) Experiencia en Big Data: ecosistema Hadoop (HDFS, Hive, Sqoop), Apache Spark (PySpark), Kafka, Airflow.. Experiencia en herramientas de Business Intelligence: MicroStrategy, Power BI, Tableau. BBDD: SQL avanzado, optimización de consultas. Análisis de datos: Python y R. Descripción Porque trabajar en Sopra Steria, también es sentir Sopra Steria. Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España. Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente. Tenemos pasión por lo digital y al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo. Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo! ¿QUÉ RETO TE PROPONEMOS? En Sopra Steria buscamos incorporar un/a Data Engineer para colaborar en proyecto de sector público. Participarás en la explotación, análisis e integración de datos tanto en entornos tradicionales (Data Warehouse) como en arquitecturas Big Data (Data Lake, Hadoop, Spark..), apoyando la toma de decisiones mediante el uso de herramientas analíticas y procesamiento distribuido. Te encargarás de: Ejecutar procesos de integración, transformación y validación de datos. Diseñar y mantener consultas SQL optimizadas. Desarrollar informes y dashboards en herramientas BI. Explotar datos en entornos Hadoop y lagos de datos mediante Spark o Hive. Automatizar flujos de datos y garantizar la calidad de la información. Documentar procesos y estructuras técnicas para explotación analítica. ¿QUÉ TENEMOS PARA TI? Contrato indefinido y jornada completa Modelo híbrido en Sevilla 23 días de vacaciones Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más! Seguro de vida y de accidentes Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación) Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas Onboarding personalizado y detallado. Te acompañamos en todo momento para que te sientas #soprano desde el primer momento. Oficina con espacios reservados al ocio. ¡Trabajo y diversión unido! Compañerismo y buen ambiente, el poder de la unión lo tenemos presente. Y lo más importante...Tienes la posibilidad de desarrollar tu carrera profesional con nosotros: Crearemos juntos un plan de carrera personalizado. Te formarás, marcaremos objetivos y llevaremos a cabo un seguimiento para asegurarnos de que lo conseguimos juntos. Escuchamos tus prioridades y luchamos por ellas. ¡Aquí tu voz importa! ¡Únete a nosotros y sé parte de algo más! The world is how we shape it Adquirimos el compromiso de respetar la diversidad, creando un ambiente de trabajo inclusivo y aplicando políticas que favorezcan la inclusión y promuevan el respeto social y cultural en cuestiones de género, edad, funcional, orientación sexual y religión con igualdad de oportunidades.
-
23/05/2025
Madrid
Requisitos deseados: Conocimiento de metodologías de Testing de Software (QA, QC) Experiencia en pruebas de Software (+4 años) Conocimiento SO Windows, Linux a nivel usuario. Experiencia en redacción de documentación relacionada con el testing: Planes de pruebas; Protocolos de prueba etc. Experiencia en ejecución de pruebas manuales y herramienta Testlink. Experiencia en seguimiento de incidencias y herramienta JIRA y Confluence Conocimiento SQL Skills valorables: Experiencia en sistemas de Ticketing . Certificación ISTQB Conocimientos de automatización de pruebas. Conocimientos en SoapUi, Seleniun Valorable experiencia en sector financiero o cliente Banco Santander. Idiomas: Inglés muy alto nivel C1 Viajes: Sí. No será algo muy frecuente ni de una duración excesiva. Como referencia podría ser un viaje cada 3 o 4 meses y la duración sería de 2 o 3 semanas Descripción Características del puesto que ofrecemos: Deseamos incorporar a un/a Tester Senior para pruebas de soluciones de Transporte y Tráfico, en Madrid. Funciones: Tester Manual. Diseño y Ejecución de Pruebas funcionales manuales. Trato con cliente, reuniones, formación y puesta en marcha. Ofrecemos contrato indefinido, modelo de trabajo híbrido y salario según valía. ¿Quieres unirte a nuestros objetivos? No lo dudes, entra a nuestras ofertas y da el primer paso, ¡nosotros daremos el resto por ti! Ofrecemos contrato indefinido y salario según valía.
-
22/05/2025
Madrid
Description: Desde Grupo Digital, buscamos un/a Data Engineer para trabajar con uno de nuestros grandes clientes. Funciones: Migración de la Arquitectura Soporte a los Data Engineers. Requisitos: Azure Data Factory Azure Databricks Azure Storage Azure DevOps Pipelines para CI/CD Python SQL Server Conocimientos de: Arquitecturas Medallion Modelado Kimball PowerBI Requisitos deseables: Kafka Debezium ¿Qué es lo que le ofrecemos? Salario competitivo en función de la experiencia Contrato indefinido u Opción de Contrato Mercantil 22 días laborables de vacaciones Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte Formación en Tecnología y Soft Skills Programa de referidos: 500 EUR por candidatos recomendados que se incorporen con nosotros Lugar de trabajo: Madrid. Modalidad: Remoto. Salario: 35 - 45.000EUR brutos anuales (según experiencia). Duración: 1 años con posibilidad de estabilidad. Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Nos comprometemos estar a tu lado en todas las fases del proyecto, para asegurarnos que creces profesionalmente con nosotros, y que tu aportación cuenta. ¿Quieres estar al día con las últimas tecnologías y buscas nuevos desafíos? ¡Envíanos tu CV y nos ponemos en contacto contigo!
-
06/05/2025
Madrid
Description: From Grupo Digital, we are looking for a Cloud Data Engineer for a stable project. Tasks: Deploy based on pipeline API stack on AWS API Gateway Develop and deploy AWS Lambda functions written in Python Analyze and document relational data models to generate AWS Quicksight datasets, AWS Quicksight visuals and dashboards Develop and deploy Github actions pipeline to integrate AWS Quicksight services Document AWS data architect solutions Propose, develop and deploy technology solutions for AI use cases Requirements: AWS Glue Amazon EMR Amazon Quicksight API Manager Amazon CloudWatch ARTIFICIAL INTELLIGENCE/MACHINE LEARNING Amazon Aurora OpenAPI SQL Shell Scripting Lambda Python GitHub High level of Spanish and English. Nice to have skills: Ansible J2EE Java Platform Enterprise Edition Kafka Amazon SageMaker Kubernetes What do we offer you? Competitive salary based on experience Permanent contract or Freelance Contract Option 22 working days of vacation Flexible compensation plan: Medical insurance, childcare vouchers, transportation vouchers Training in Technology and Soft Skills Referral program: EUR500 for recommended candidates who join us Location: Madrid. Full remote. Salary to be negotiated based on experience. Grupo Digital We are a group of technology companies, currently made up of around 200 professionals in various areas: development, systems, automation engineering, consulting, and more. If you wish to start your career in web development and be part of a dynamic team, we look forward to receiving your application!
-
14/05/2025
Madrid
Estamos buscando un Ingeniero de Big Data / Machine Learning para el Desarrollo de planes de acción, especificaciones técnicas para desarrollar pliegos y seguimiento de iniciativas en el campo de la mejora de la Administración Electrónica para la Transformación Digital. Rol: Ingeniero de Big Data / Machine Learning Requisitos: Consultoría y análisis de soluciones complejas en general, siempre en el ámbito TIC (mínimo cinco (5) años). Conocimiento en Arquitectura o ingeniería de datos de cara a implantación de proyectos de Big Data y/o Machine Learning (mínimo tres (3) años). Conocimiento de plataformas de Big Data (Hadoop, Casandra, etc) y procesamiento de altos volúmenes de información (Streams) tipo Kafka, Spark, Storm, MapReduce. Diseño e implementación de infraestructuras informáticas complejas (sistemas de información). Gestión de proyectos y programas. Elaboración de especificaciones técnicas ligadas a la contratación pública, y realización en general de pliegos de contratación. Condiciones Laborales: Lugar de Trabajo: Madrid, España. Tipo de Contrato: A Término Indefinido. Salario: A convenir de acuerdo a la experiencia.
-
04/06/2025
Madrid
Desde CMV Consultores te brindamos las mejores oportunidades, en importantes clientes. Desarrollar soluciones en Python robustas y mantenibles, aplicando buenas prácticas (clean code, pruebas unitarias, patrones de diseño) para construir APIs, Azure Functions y procesos de backend escalables. Diseñar, implementar y optimizar pipelines de datos utilizando Spark y Databricks, aplicando procesos ETL/ELT eficientes y asegurando la calidad, trazabilidad y gobierno del dato. Integrar y operar bases de datos relacionales, NoSQL y vectoriales (SQL Server, MongoDB, CosmosDB, Snowflake, Azure AI Search), optimizando consultas y diseñando modelos de datos adaptados a los casos de uso. Orquestar flujos de datos y procesos en Azure, utilizando servicios como Data Factory, Azure Functions, Data Lake, Key Vault y Log Analytics para construir arquitecturas modulares, seguras y monitorizadas. Desplegar y mantener entornos de integración y entrega continua (CI/CD) en Azure DevOps o GitHub Actions, creando pipelines YAML automatizados para pruebas, análisis estático, despliegues y versionado. Colaborar en entornos controlados por GIT, siguiendo metodologías como Git Flow o trunk-based development, integrando ramas y resolviendo conflictos de forma eficiente. Aplicar principios de observabilidad y gobierno del dato, incluyendo el uso de métricas, logs, auditoría, gestión de permisos (Entra ID), y definición de buenas prácticas de operación en la nube. Explorar e integrar tecnologías de IA generativa y ML en producción, incluyendo uso de APIs de OpenAI, modelos vectoriales, endpoints en Azure Machine Learning y servicios cognitivos como Document Intelligence. ¿Qué se ofrece? Teletrabajov3 días (2 días a la oficina zona Delicias) Contrato indefinido y salario competitivo según valía. Proyecto a largo plazo
-
06/05/2025
Madrid
Buscamos perfil DevOps Mid para proyecto estable en Madrid Capital (zona Nuevos Ministerios), y con experiencia de 2 a 3 años aproximadamente en puesto similar y con experiencia en Kubernetes, Github + Jenkins, y cuestiones Linux de Scripting y valorables conocimientos de desarrollo Backend). Condiciones base: Proyecto estable y orientación a largo plazo. Contratación por Nosotros: Sandav Consultores, en prestación de servicios para compañía cliente consolidada en su sector. Formato mixto entre teletrabajo y presencialidad en oficinas de Nuevos Ministerios - Azca, (Madrid). (2 o 3 días a la semana acudiendo a oficinas). Horario de oficina habitual con posibilidades de flexibilidad de entrada y de salida a concretar en fases posteriores. Salario Bruto Anual a contemplar entre ámbitos de 27.000 a entornos de 35.000 o 38.000 EUR/B Anuales (Aproximadamente), podrían llegar a contemplarse candidaturas levemente por encima si el perfil lo justifica. Funciones Principales / Perfil: Experiencia de 2-3 años en automatización de procesos sobre Jenkins (valorable otros entornos como Github Action, Azure Devops, etc.) Se requieren conocimientos en: Scripting sobre sistemas Linux Desarrollo backend (APIs sobre diferentes lenguajes como Python, Java, etc.) Conocimientos sólidos de GIT Uso/despliegue de aplicaciones sobre kubernetes (valorables conocimientos en versiones K8S en diferentes clouds y OCP3 y OCP4) Conocimientos de GCP (se valorará conocimiento de otras clouds y conocimientos de arquitectura sobre ellas) Nivel avanzado de herramientas como Linux, Java, Python y Git. SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, que en resumen quiere decir que CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com