Jobs Big Data Specialist Version Control System (VCS) in Madrid
Estás son las últimas ofertas de trabajo de Big Data Specialist Version Control System (VCS) in Madrid encontradas.
job(s)
-
28/01/2025
Madrid
Rol: Big Data Engineer - Proyecto Tecnológico ¿Qué ofrecemos en Zemsania? Contrato indefinido desde el primer día. Plan de formación y certificaciones en tecnologías avanzadas. Acompañamiento personalizado con un People Partner. Participación en proyectos tecnológicos innovadores. Trabajo con tecnologías punteras en un equipo de alto nivel. Ubicación: 100% Remoto Contrato: Indefinido con Zemsania para un proyecto en el sector financiero Requisitos mínimos: Experiencia de 3-5 años en entornos de Big Data. Manejo de tecnologías clave: Big Data & Spark Java & Python Kafka & Jenkins GIT & SonarQube Openshift & Agile Confluence Soft skills destacadas: Capacidad de comunicación y trabajo en equipo. Requisitos deseables: Experiencia previa en el sector financiero. Conocimientos en arquitecturas de datos avanzadas. Funciones: Incorporación al Squad de Data en un proyecto de alto impacto. Desarrollo y mantenimiento de soluciones Big Data. Implementación de arquitecturas basadas en Spark, Kafka y Java/Python. Optimización y automatización de procesos en entornos de datos escalables. Aplicación de metodologías Agile para la gestión eficiente de proyectos. Si te apasiona el Big Data y quieres formar parte de un equipo innovador, ¡te estamos buscando! En Zemsania, creemos en la igualdad de oportunidades y en la diversidad como valores fundamentales para el éxito de nuestra organización. Por ello, garantizamos un proceso de selección basado en el mérito y sin discriminación por motivos de género, edad, discapacidad, orientación sexual, raza, religión o cualquier otra condición personal o social.
-
16/01/2025
Madrid
Buscamos perfil Big Data con 2 - 3 años de experiencia habiendo trabajado tanto con Scala como con Python/PySpark. Proyecto con cliente que gestiona esta concreta necesidad en el servicio estable para la importante organismo Público Estatal. Stack Técnico / Requisitos Lenguajes de desarrollo: Scala y Python. (2 - 3 años de experiencia con ello) Procesamiento: procesos distribuidos sobre Spark con lenguaje Scala y con lenguaje Python usando la librería PySpark. Es importante conocer Spark y el paradigma map-reduce. También procesado tradicional mediante programas Python. Bases de datos: lenguaje SQL para consultar bases de datos distribuidas (Impala). Coordinación de los procesos mediante scripts bash ejecutados en servidores con sistema operativo Linux. Se utiliza Cloudera, una distribución privada de servicios Big Data. Herramientas del entorno de desarrollo: editor de código Visual Studio Code, repositorio de código fuente SVN, integración continua con Jenkins, calidad de código con Sonar y planificación de procesos con Control-M. Funciones Ingeniería de datos para procesos distribuidos con arquitectura Spark. Ciclo completo: comprensión de los requisitos de negocio, elaboración de especificaciones, análisis y comprensión de datos disponibles para desarrollo de algoritmos y cruces de datos Asimismo, se requiere la realización de pruebas, documentación de todo el proceso, control de versiones de los componentes, peticiones y soporte a subidas entre entornos, y resolución de incidencias asociadas. Se requiere que el producto generado tenga calidad, con tests automáticos, buena documentación etc... Condiciones base: Oficinas del Organismo Público en zona Chamartín. (Madrid) Presencial en la semana 2 días, y 3 de Teletrabajo. 3 meses jornada intensiva (15 Junio - 15 Septiembre) Salario a contemplar: entre 34 y 37.000 EUR brutos / anuales. Proceso de Contratación directa por compañía Cliente del sector Consultoría en el servicio.