Trabajo Data Engineer NoSQL en 28023 Madrid

Estás son las últimas ofertas de trabajo de Data Engineer NoSQL en 28023 Madrid encontradas.

 empleos encontrados

  • 19/05/2025

    Madrid

    Oferta: Data Engineer Talend/MongoDB 100% Remoto | Salario según expectativa ¿Qué harás? Desarrollar procesos ETL con Talend Escribir y lanzar consultas NoSQL con MongoDB Documentar procesos y colaborar con el equipo Requisitos ‍ 2 años de experiencia como Data Engineer Manejo de Talend y MongoDB Autónomo/a y con iniciativa Valorable experiencia en seguros Proyecto estable ¿Te interesa? ¡Contáctanos y súmate al equipo!

  • 22/04/2025

    Madrid

    ¿Qué buscamos? Más de 3 años de experiencia como ingeniero de datos o en un puesto similar Gran dominio del lenguaje de programación Scala y PySpark Amplia experiencia con tecnologías de big data, en particular Apache Spark y el ecosistema Hadoop Sólidos conocimientos de bases de datos SQL y NoSQL Experiencia en modelado de datos, procesos ETL y conceptos de almacenamiento de datos Experiencia con sistemas de control de versiones, preferiblemente GIT. Familiaridad con plataformas en la nube como AWS, Azure o GCP Conocimiento de las mejores prácticas de seguridad y privacidad de datos Descripción Porque trabajar en Sopra Steria, también es sentir Sopra Steria. Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España. Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente. Tenemos pasión por lo digital y al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo. Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo! En Sopra nos gustaría incorporar a un par de Data Engineer con experiencia en Scala y PySpark para unirse a nuestro dinámico equipo. En este puesto, será responsable de diseñar, implementar y mantener canalizaciones de datos e infraestructuras robustas para apoyar los procesos de toma de decisiones basados en datos de nuestra organización. Desarrollar y optimizar los procesos ETL utilizando Scala y PySpark para manejar el procesamiento de datos a gran escala Colaborar con científicos y analistas de datos para comprender los requisitos de los datos y entregar conjuntos de datos de alta calidad Construir y mantener canalizaciones de datos escalables utilizando Apache Spark y otras tecnologías de big data Implementar controles de calidad de datos y sistemas de supervisión para garantizar la precisión y fiabilidad de los datos El horario es flexible de oficina y el trabajo se realiza de manera híbrida, siendo 1 o 2 días por semana en oficina y el resto en casa.. Ubicación: Las Tablas

Búsqueda avanzada