Treball Data Engineer Scala
Estás son las últimas ofertas de trabajo de Data Engineer Scala encontradas.
treballs
-
05/11/2024
Madrid
¿Qué reto proponemos? Nos gustaría incorporar a un par de personas con experiencia como Data Engineer trabajando con tecnología Python PySpark para colaborar en importante proyecto del sector seguros. ¿Qué buscamos? Al menos 2 - 3 años de experiencia como Data Engineer Experiencia y/o conocimiento en plataforma Palantir Foundry Experiencia con Pyspark/Scala Experiencia con SQL/MySQL Valorable conocimientos en Tableau, Denodo, Power BI, Data bricks. ¿Qué ofrecemos? ¿Qué tenemos para ti? Contrato indefinido y jornada completa 23 días de vacaciones Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más! Seguro de vida y de accidentes Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación) Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas Onboarding personalizado y detallado. Te acompañamos en todo momento para que te sientas #soprano desde el primer momento. Oficina con espacios reservados al ocio. ¡Trabajo y diversión unido! Compañerismo y buen ambiente, el poder de la unión lo tenemos presente. Horario 09:00 a 18:00, jornada intensiva en verano Modalidad híbrida de teletrabajo en Madrid, 1 día en oficina. Y lo más importante...Tienes la posibilidad de desarrollar tu carrera profesional con nosotros: Crearemos juntos un plan de carrera personalizado. Te formarás, marcaremos objetivos y llevaremos a cabo un seguimiento para asegurarnos de que lo conseguimos juntos. Escuchamos tus prioridades y luchamos por ellas. ¡Aquí tu voz importa! ¡Únete a nosotros y sé parte de algo más! The world is how we shape it
-
07/10/2024
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
Ubicación: Galicia Experiencia requerida: 3 años Estamos buscando un perfil especializado en análisis y gestión de datos para trabajar en un proyecto confidencial, preferentemente desde Galicia, aunque el puesto es flexible y puede ser ocupado desde cualquier lugar de España. ¿Qué buscamos de ti? Experiencia demostrable en Python y Spark. Conocimiento avanzado en Azure y herramientas de Big Data (Spark, Databricks). Experiencia en herramientas de análisis de datos como Python, Scala o R. Familiaridad con soluciones de reporting como Power BI. Comprensión de algoritmos de machine learning. Dominio de bases de datos relacionales y no relacionales. Nivel de inglés C1 o superior. Formación Buscamos personas con estudios en Informática, Matemáticas, Telecomunicaciones o un ciclo superior en desarrollo web o afines. ¿Qué responsabilidades tendrás? Gestionar bases de datos internas y externas. Diseñar y desarrollar el Data Lake de la empresa. Crear modelos de procesamiento de datos para identificar patrones. Desarrollar procesos ETL para la integración de datos de diversas fuentes. Definir y validar hipótesis para generar nuevos conocimientos. Generar informes y modelos de reporting para apoyar la toma de decisiones de la empresa. Asegurar el cumplimiento de políticas de calidad y seguridad de la información, conforme al sistema de gestión integral. ¿Qué te ofrecemos? Modelo de trabajo híbrido: Si resides en Galicia, disfrutarás de la flexibilidad de trabajar desde casa, con la oportunidad de conectar presencialmente en la oficina un día a la semana. ¡Un equilibrio perfecto entre comodidad y colaboración! Oportunidades de crecimiento: Formarás parte de un equipo en constante evolución, con la posibilidad de desarrollar nuevas habilidades y avanzar en tu carrera profesional. Proyecto con cliente final: Trabajarás directamente con un cliente final, lo que te permitirá tener un impacto real en la evolución y éxito del proyecto. Entorno multinacional: Únete a una empresa multinacional, donde la innovación y la excelencia son los pilares fundamentales. Colabora con profesionales de distintos países y disfruta de un ambiente diverso y dinámico. ¿Te interesa? Si estás buscando una oportunidad para impulsar tu carrera en un entorno dinámico, flexible y con proyección internacional, ¡esta es tu oportunidad! No dudes en unirte a nuestro equipo y formar parte de un proyecto retador con grandes perspectivas de crecimiento. ¡Te esperamos! Inscríbete ahora y da el siguiente paso en tu carrera.
-
17/09/2024
Madrid, Un altre
Desde Sandav Consultores estamos en búsqueda de un Data Engineer para cliente ubicado en Madrid (zona de Arganzuela) con modalidad híbrida de trabajo (un mes se trabajará 2 días de manera presencial y 3 días de teletrabajo a la semana) y otro mes 100% remoto. Y así sucesivamente meses alternos. Desarrollo de Modelado de Datos y Pipelines con Spark y Scala para ingesta y transformación. datos de diferentes fuentes (temas de Kafka, API, HDFS, bases de datos estructuradas, archivos) en Le siguen HDFS, IBM Cloud Storage (generalmente en formato parquet) o bases de datos SQL/NOSQL. Gestionar soluciones de almacenamiento de big data en la plataforma (HDFS, IBM Cloud Storage, estructurado y bases de datos no estructuradas) Transformación y Calidad de Datos: implementar transformación de datos y control de calidad. procesos para garantizar la coherencia y precisión de los datos. Utilizar lenguajes de programación como Scala y SQL. Y bibliotecas como Spark para operaciones de enriquecimiento y transformación de datos. Implementación de canales de CI/CD: configurar canales de CI/CD para automatizar la implementación, unidad pruebas y gestión del desarrollo. Migración de infraestructura: migrar la infraestructura de Hadoop existente a la infraestructura de nube en Kubernetes Engine, Object Storage (almacenamiento en la nube de IBM), Spark como servicio en Scala (para construir las canalizaciones de datos) y Airflow como servicio (para orquestar y programar los datos tuberías) Implementación de esquemas, consultas y vistas en bases de datos SQL/NOSQL como Oracle, Postgres o MongoDB Desarrollar y configurar la programación de canalizaciones de datos con una combinación de scripts de shell. y AirFlow como servicio Pruebas de validación: realizar pruebas unitarias y de validación para garantizar la precisión y la integridad. Documentación: redactar documentación técnica (especificaciones, documentos operativos) para asegurar la capitalización del conocimiento. Se ofrece: Proyecto estable. Contrato indefinido. Modalidad de trabajo: híbrida (un mes se trabajará 2 días de manera presencial y 3 días de teletrabajo a la semana) y otro mes 100% remoto. Y así sucesivamente meses alternos. Horario: Jornada completa de lunes-jueves (en principio de 09-18h) y viernes y verano intensiva Tienen flexibilidad total en cuanto a horario para entrar entre las 8-9h, 1 hora para comer y salir sobre las 17:30. Son 8,5 horas al día para acumular de cara a los días de jornadas intensivas. Salario: 39.000EUR - 41.000EUR / brutos anuales (en función de la experiencia aportada). Se valoran candidaturas por salarios superiores en función de la experiencia). Seguro médico opcional que incluye seguro dental y psicología y retribución flexible a nivel de tickets restaurante. Cursos de formación gratuita.