The job offer Data Engineer - Scala y Pyspark is not available any more
Here are some similar offers:
-
19/08/2025
Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular
¡Seguimos buscando talento...y nos encantaría que te unieras a nuestro equipo! Para que nos conozcas algo mejor, UST es una multinacional norteamericana certificada como Top Employer y Great Place to Work con más de 35.000 empleados a nivel global y con presencia en más de 35 países. Somos líderes en servicios de tecnología digital y proporcionamos soluciones tecnológicas de gran alcance a grandes compañías. ¿Qué buscamos? Para nuestro equipo buscamos un Data Engineer con al menos 3 años de experiencia con foco en la creación de pipelines de datos y almacenamiento para trabajar con uno de nuestros clientes del sector bancario ¿Cuáles serán tus funciones? Diseñar y desarrollar pipelines de datos eficientes y escalables para integrar y transformar grandes volúmenes de información de diversas fuentes. Gestionar y optimizar la infraestructura de datos garantizando su seguridad, rendimiento y escalabilidad. Colaborar con los equipos para facilitar el acceso a los datos, desarrollando APIs y asegurando que la calidad de los datos sea adecuada para su explotación. Realizar análisis de rendimiento y optimización de las consultas a las bases de datos, minimizando tiempos de respuesta y costos asociados al procesamiento. Implementar procesos de automatización para la integración continua de datos de diversas fuentes. Desarrollar e implementar flujos de trabajo ETL (Extract, Transform, Load) y procesos ELT según las necesidades del negocio. Supervisar y resolver problemas en los sistemas de procesamiento de datos, manteniendo la continuidad operativa. ¿Qué esperamos de ti? Licenciatura en Informática, Ingeniería de Sistemas, Matemáticas o carreras afines. Al menos 3 años de experiencia como Data Engineer o en un rol similar, con foco en la creación de pipelines de datos y almacenamiento. Experiencia en Big Data: conocimiento profundo de tecnologías como Hadoop, Spark, Hive y Kafka. Dominio avanzado de SQL para la gestión y optimización de bases de datos. Sólidos conocimientos de programación en lenguajes como Java o Scala para manipulación de datos y desarrollo de scripts. Experiencia con plataformas Cloudera en la nube. Experiencia en la creación de pipelines de datos con herramientas de automatización y orquestación con Oozie. Familiaridad con herramientas de versionado de código y CI/CD (Git, Jenkins). Familiaridad con herramientas de visualización y análisis de datos (como Tableau o Microstrategy), aunque no esencial. ¿Qué te ofrecemos? 23 días laborables de vacaciones y el 24 y 31 de diciembre. Numerosos beneficios sociales (seguro médico, ayuda al teletrabajo, seguro de vida y seguro de accidentes). Programa de Retribución Flexible (tarjeta comida, cheques guardería, tarjeta transporte, clases de inglés online, seguro médico para tu familia...). Acceso gratuito a varias plataformas de formación. Estabilidad y carrera profesional. Tenemos implantado un plan de compensación de referencias internas. Posibilidad de elección de percibir tu salario en 12 o 14 pagas. Medidas de conciliación (horario flexible, teletrabajo, asesoramiento de especialistas (psicólogo, nutricionista, entrenador personal), jornada intensiva los viernes y en verano según proyecto). Plataforma UST Club descuentos y descuentos en gimnasios. Si quieres conocer más, no dudes en inscribirte y nos pondremos en contacto contigo para ampliarte información de la posición ¡Te estamos esperando! En UST nos comprometemos con la igualdad de oportunidades en nuestros procesos de selección y no realizamos ningún tipo de discriminación por razón de raza, género, discapacidad, edad, religión, orientación sexual o nacionalidad. Estamos comprometidos con la discapacidad y apostamos por la incorporación de personas con certificado de discapacidad.
-
28/07/2025
Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular
¡Apiux está buscando un/a PROGRAMADOR PYTHON para TELETRABAJAR!!! Somos una empresa tecnológica especializada en apoyar a organizaciones de todas las industrias en su proceso de Transformación Digital. Estamos presentes en Chile, Perú, Colombia, EE. UU, España y seguimos en constante expansión. Cliente: Líder en el Sector Experiencia: 5 años Contrato: Indefinido Modalidad: Teletrabajo Conocimiento Clave: PYTHON Horario: Oficina Incorporación: Inmediata Salario: 20.000 - 21.000 Requisitos Obligatorios: Imprescindible Experiencia con programación en Spark y Python (Pyspark). Se busca un perfil de desarrollo Python, no data. Conocimientos de AWS: principalmente trabajar SageMaker para analizar datos y también para desarrollar los engines. Puede ser necesario el uso Athena para, esencialmente, comprobar que existan las particiones de las tablas y para generar las tablas de las que tira actualmente los sistemas de visualización. También viene bien el uso de CloudWatch y también la interfaz de S3. Experiencia con GIT, Maven, Jenkins, Artifactory, Sonar, etc. Beneficios: Contrato indefinido Rango salarial competitivo en función a la experiencia 23 días de vacaciones 4 días al año de vacaciones por permanencia en la empresa a partir del primer año Apiux Academy: Formación, entrenamientos técnicos e interacción con la comunidad tech para desarrollar tu talento al máximo. Día de tu cumpleaños libre. Bonos por nacimiento, matrimonio y referidos. Happy Points: Un sistema de puntos que puedes canjear por días libres. Proyectos de larga duración y en algunos casos internacionales. Y-Share: ¡Sé dueño de una parte de la compañía uniéndose a nuestro programa! Apiux Tecnología es una empresa que acelera y permite el crecimiento con tecnología, innovación y desarrollo del talento. Con ello, apoyamos a las organizaciones en su proceso de transformación digital, modernización e implementaciones. ¡Aplica ahora y prepárate para liderar el cambio!
-
24/08/2025
Madrid
Descripción del proyecto: Responsabilidades: Desarrollar soluciones software escalables, mantenibles, seguras y eficientes. Estimar y planificar el desarrollo de módulos funcionales. Colaborar con el equipo de desarrollo para asegurar coherencia y calidad técnica. Documentar el código y generar documentación técnica de forma clara y estructurada. Requisitos: Al menos 4 años de experiencia en desarrollo Java. Formación en Ingeniería Informática o en Ciclo Formativo de Grado Superior en áreas afines Sólidos conocimientos en Spring Boot. Dominio de sentencias SQL y experiencia con SQL Server. Experiencia en la elaboración y consumo de APIs RESTful. Conocimiento y uso de control de versiones con Git. Conocimiento de herramientas de testing y experiencia en pruebas unitarias e integración. Familiaridad con mejores prácticas de seguridad y manejo de vulnerabilidades comunes. Experiencia en el uso de Sonar para análisis de código. ✨ Beneficios de ser un Happener Contrato indefinido Modalidad 100% Remoto Rango salarial hasta 25K 23 días de vacaciones hábiles por año laborado Apiux Academy: formación, entrenamientos técnicos e interacción con la comunidad tech para desarrollar tu talento al máximo Convenios con Open English Convenios con Coderhouse Certificaciones patrocinadas con Google Cloud, AWS, ISTQB Día de cumpleaños libre Bonos por nacimiento, matrimonio y referidos Happy Points: sistema de puntos canjeables por días libres Proyectos de larga duración y, en algunos casos, de alcance internacional Y-Share: posibilidad de ser dueño de una parte de la compañía 💡 En Apiux nos identificamos como una fábrica de talento con fuerte orientación al negocio Continuamente brindamos espacios a las nuevas generaciones para mostrar y desarrollar ideas, conocimientos y exponer modelos de negocios innovadores enfocados en cubrir, siempre con una propuesta de valor, las necesidades de nuestros clientes. 🔍 ¿Qué hacemos? Posicionamos el mejor talento con un enfoque estratégico, y nos esforzamos por entender a cabalidad la cultura y valores de cada uno de nuestros clientes, con el fin de hacer el match perfecto entre cliente y talento. Velamos, además, por brindar una candidate experience y employee experience ejemplar para nuestros futuros Happener. 🐝 Ser un Happener Significa pertenecer a una familia con principios integrales, donde el espíritu ágil, colaborador e innovador son el combustible que día tras día le inyectamos a nuestro corazón para hacer las cosas cada vez mejor. 🚀 Nuestros principios: We Care: Nos importa la gente, sus valores, principios, aprendizajes y creencias. We are not comfortable by being comfortable: No nos conformamos con la comodidad, queremos cambio, retos y tomar riesgos. We create and develop: Nuestro ADN está el crear oportunidades, servicios y productos para impactar al mundo. Desarrollamos talento y código. Crecimiento: Todos los happeners tenemos mentalidad de fundadores y dueños de Apiux. ¡Si Apiux crece, todos crecen! We embrace diversity: Incentivamos una cultura que hace que todos, sin importar las diferencias, sientan un ambiente de equidad, oportunidad e inclusión. ¿Quieres ser un Happener e impactar el futuro con la Tecnología y tu Talento? ¡Esperamos tu postulación! Sé parte de la colmena, sé parte del cambio. 🐝🚀
-
28/08/2025
Madrid
Desarrollador/a Junior Big Data (Remoto) En Zemsania estamos buscando un/a Desarrollador/a Junior Big Data con al menos 3 años de experiencia para un proyecto destacado en el sector financiero/tecnológico. Modalidad de trabajo 100% remoto Horario: Lunes a jueves: 9:00 - 19:00 Viernes: 8:00 - 15:00 Julio y agosto: jornada intensiva de 7h Requisitos mínimos Experiencia de al menos 3 años en proyectos Big Data. Conocimientos técnicos en: Scala Spark SQL Apache Airflow Databricks Cloudera S3 Se valorará Experiencia en entornos distribuidos. Capacidad analítica y orientación a resultados. Proactividad, iniciativa y capacidad para trabajar en equipo. Funciones Refactorización y optimización de aplicaciones críticas dentro del ecosistema Big Data. Desarrollo, mantenimiento y evolución de pipelines de datos. Implementación de buenas prácticas y estándares de calidad en proyectos de datos. Qué ofrecemos Contratación directa con Zemsania. Proyecto estable y de largo recorrido en el sector financiero. Oportunidades de crecimiento profesional y formación continua. Jornada intensiva en verano. Compromiso con la igualdad En Zemsania, apostamos firmemente por la igualdad de oportunidades. Promovemos procesos inclusivos, libres de discriminación por edad, género, orientación sexual, etnia, religión o discapacidad. Nos comprometemos con un entorno justo y diverso donde cada persona pueda desarrollarse plenamente. ¿Quieres formar parte de un equipo técnico de alto nivel en seguridad de sistemas? ¡Envía tu candidatura y da el siguiente paso con nosotros!
-
11/07/2025
Andalusia
Ubicación: Preferencia por ciudades con sede (flexible para candidatos deslocalizados si el perfil encaja) Modalidad: A convenir Tarifa: Acorde a experiencia y conocimientos del perfil Nivel de inglés: B2 Descripción del puesto Buscamos un profesional para participar en la creación de un nuevo dashboard en Kibana, incluyendo tareas de preprocesamiento Big Data en el Data Lake (SCIB). Formará parte de un equipo de trabajo especializado en Market Risk, colaborando tanto en el desarrollo de procesos en tecnologías Big Data (Spark, Scala) como en tareas comunes del área. El rol implica trabajar con tecnologías del ecosistema ELK (Kibana, Elasticsearch, Logstash), procesamiento de datos en entornos distribuidos (Hadoop, Spark), y contribuir a la construcción de soluciones analíticas que ayuden a la gestión de riesgos del mercado. Responsabilidades Desarrollo y mantenimiento de procesos de ingesta y transformación de datos en Spark (Scala). Diseño y construcción de dashboards en Kibana para la visualización de datos de Market Risk. Preprocesamiento y gestión de datos en el Data Lake (SCIB). Colaboración con el equipo para tareas comunes del área de Big Data. Aplicación de buenas prácticas de desarrollo y documentación de procesos. Requisitos Obligatorios: Experiencia previa en proyectos tecnológicos, preferentemente de datos o analítica. Conocimiento técnico y experiencia en Scala y Apache Spark. Conocimiento de Hadoop. Manejo de sentencias SQL. Conocimiento básico de Shell scripting. Conocimiento básico de Kibana y del entorno ELK (Elasticsearch, Logstash, Kibana). Requisitos Deseables (no obligatorios) Conocimiento técnico de Azure Databricks. Experiencia previa en sector bancario o en Riesgos de Mercado. Conocimiento de Airflow como gestor de workflows/pipelines. Condiciones Ubicación: Preferencia por ciudades donde tengamos sedes; posibilidad de valorar perfiles deslocalizados. Tarifa: Se definirá según experiencia y conocimientos. Inglés: Nivel B2 requerido.
-
13/08/2025
Madrid
BUSCAMOS: Big Data Architect/Engineer Para importante empresa Sector Tecnológico buscamos Profesional con experiencia contrastada (mínimo 6 años) desempeñando el Role de Big Data Architect o Big Data Engineer que haya hecho Desarrollo en proyectos de big data y/o diseñado arquitectura. Conocimientos & Experiencia con: ■ Python, spark, scala ■ conocimientos en la nube (AWS, Azure o GCP) Formación ■ Deseable titulación en carreras técnicas (ingenierías) Idioma ■ Español ■ Inglés (deseable no obligatorio) SE OFRECE: · Contrato Indefinido (jornada completa) · Oferta económica: 40k/60k (según experiencia aportada) · Localización: España - Teletrabajo 100% · Incorporación: ASAP
-
13/08/2025
Madrid
Seleccionamos: Data cloud engineer Snowflake Ubicación: Madrid. Buscamos un/a data/cloud Engineer altamente capacitado y motivado con experiencia en el desarrollo de tablas analíticas en data warehouse (Snowflake). El candidato/a ideal será experto en trabajar en diferentes entornos (desarrollo, pruebas y producción). También se valora mucho la experiencia con soluciones en la nube, concretamente AWS. El ingeniero de BI desempeñará un papel fundamental en la transformación de datos en ideas prácticas (actionable insights), garantizando la integridad de los datos y respaldando la toma de decisiones de negocio. Indispensable: Experiencia comprobada con el almacén de datos Snowflake, incluido el diseño de esquemas, desarrollo de SQL y optimización del rendimiento. Experiencia con soluciones en la nube de AWS, incluidos S3, Redshift, Lambda y otros servicios relevantes. Conocimiento de los servicios de AWS para almacenamiento, procesamiento y análisis de datos. Implementar y gestionar procesos ETL en el entorno de la nube. Garantizar la seguridad y el cumplimiento de los datos dentro del marco de AWS. Dominio de SQL y experiencia con procesos y herramientas ETL. Gran comprensión de los conceptos y mejores prácticas de data warehousing. Habilidades avanzadas en Tableau u otras herramientas de visualización (como Power BI), no para crear dashboards, sino para gestionar las conexiones. Experiencia con Jira para gestión de proyectos y seguimiento de problemas. Competencia en el uso de GitHub para control de versiones y colaboración. Requisitos deseados: Haber trabajado con DBT. Licenciatura / maestría en informática, tecnología de la información, ciencia de datos o un campo relacionado. Las certificaciones relevantes en Snowflake, AWS, Tableau u otras herramientas de BI son una ventaja. Conocimiento de Python u otros lenguajes de scripting para manipulación y automatización de datos. Funciones: Desarrollo de data warehouse: Diseñar, desarrollar y mantener tablas analíticas en el data warehouse de Snowflake. Optimizar los procesos de almacenamiento y recuperación de datos para garantizar un rendimiento eficiente de las consultas. Implementar técnicas de modelado de datos para respaldar los requisitos comerciales y las necesidades de informes. Informes y visualización: Traducir conjuntos de datos complejos en información visual clara y procesable. Proporcionar análisis de datos ad-hoc y soporte de informes a varias unidades de negocio. Gestión de entornos: Gestionar e implementar soluciones de datos en entornos de desarrollo, pruebas y producción. Garantizar transiciones fluidas entre entornos, minimizando las interrupciones en el acceso a los datos y la generación de informes. Realizar pruebas y validaciones exhaustivas de soluciones de datos en diversos entornos para garantizar la precisión y confiabilidad. Colaboración y Gestión de Proyectos: Colaborar con equipos multifuncionales, incluidos analistas de datos, científicos de datos y partes interesadas del negocio, para comprender las necesidades de datos y ofrecer soluciones. Utilice Jira para realizar un seguimiento y gestionar las tareas, los problemas y el progreso del proyecto. Mantener el control de versiones y administrar repositorios de código usando GitHub. Documentación y Gobierno de Datos: Documentar definiciones de datos, modelos, procesos y flujos de trabajo con fines de referencia y capacitación. Implementar y hacer cumplir políticas de gobierno de datos para garantizar la precisión, coherencia y seguridad de los datos. Realizar controles periódicos de calidad de los datos y solucionar cualquier problema relacionado con los datos. Condiciones: 40h semanales Flexibilidad de horario Rango salarial deseado máximo 56k
-
28/08/2025
Madrid
Desarrollador/a Junior Big Data/Qlick Ubicación: Remoto Contratación directa: Zemsania Horario: Lunes a jueves: 9:00 - 19:00 Viernes: 8:00 - 15:00 Julio y agosto: jornada intensiva de 7h Sobre el proyecto En Zemsania buscamos un/a Desarrollador/a Junior Big Data con 2-3 años de experiencia para un emocionante proyecto en el sector tecnológico/financiero. Tu misión será participar en la refactorización y optimización de aplicaciones críticas, trabajando con grandes volúmenes de datos en entornos innovadores. Lo que necesitas traer 2-3 años de experiencia en entornos Big Data. Conocimientos sólidos en: Scala Spark SQL Apache Airflow Databricks QlikView Impala Starburst Valoramos también Experiencia en entornos distribuidos. Pasión por la optimización de procesos ETL. Adaptabilidad, trabajo en equipo y ganas de aprender. ¿Qué te ofrecemos? Contratación estable con Zemsania Participación en proyectos de gran impacto en el sector tecnológico/financiero Oportunidades reales de crecimiento y aprendizaje Jornada intensiva en verano Si quieres crecer en el mundo Big Data y formar parte de un equipo innovador, ¡esta es tu oportunidad! Compromiso con la igualdad En Zemsania, apostamos firmemente por la igualdad de oportunidades. Promovemos procesos inclusivos, libres de discriminación por edad, género, orientación sexual, etnia, religión o discapacidad. Nos comprometemos con un entorno justo y diverso donde cada persona pueda desarrollarse plenamente. ¿Quieres formar parte de un equipo técnico de alto nivel en seguridad de sistemas? ¡Envía tu candidatura y da el siguiente paso con nosotros!
-
09/08/2025
Madrid
Aplican únicamente residentes de España Modalidad: Remoto Tipo de contrato: Indefinido Rango salarial: 30K - 40K anuales Descripción del proyecto: En Apiux buscamos un Backend Developer con amplia experiencia en TypeScript para unirse a un proyecto innovador del sector InsureTech. Formarás parte de una empresa en rápido crecimiento, desarrollando e integrando soluciones backend que impulsan la evolución de nuestro producto. Requisitos: Ser residente de España Indispensables: Titulación técnica o ingeniería en Informática, Sistemas o afines. Mínimo 5 años de experiencia en desarrollo backend. Dominio de TypeScript y JavaScript. Experiencia sólida en Node.js. Integración y consumo de servicios REST con buenas prácticas. Conocimiento de RDBMS y NoSQL aplicando buenas prácticas. Manejo avanzado de GIT (GitLab, GitHub, Bitbucket). Experiencia con Docker. Buenas prácticas en pruebas unitarias y mocks. Requisitos deseables: Experiencia con NestJS. Inglés técnico para lectura y comprensión de documentación. Conocimiento de la industria de seguros. ✨ Beneficios de ser un Happener Contrato indefinido Modalidad 100% Remoto Rango salarial de 30K a 40K 23 días de vacaciones hábiles por año laborado Apiux Academy: formación, entrenamientos técnicos e interacción con la comunidad tech para desarrollar tu talento al máximo Convenios con Open English Convenios con Coderhouse Certificaciones patrocinadas con Google Cloud, AWS, ISTQB Día de cumpleaños libre Bonos por nacimiento, matrimonio y referidos Happy Points: sistema de puntos canjeables por días libres Proyectos de larga duración y, en algunos casos, de alcance internacional Y-Share: posibilidad de ser dueño de una parte de la compañía 💡 En Apiux nos identificamos como una fábrica de talento con fuerte orientación al negocio Continuamente brindamos espacios a las nuevas generaciones para mostrar y desarrollar ideas, conocimientos y exponer modelos de negocios innovadores enfocados en cubrir, siempre con una propuesta de valor, las necesidades de nuestros clientes. 🔍 ¿Qué hacemos? Posicionamos el mejor talento con un enfoque estratégico, y nos esforzamos por entender a cabalidad la cultura y valores de cada uno de nuestros clientes, con el fin de hacer el match perfecto entre cliente y talento. Velamos, además, por brindar una candidate experience y employee experience ejemplar para nuestros futuros Happener. 🐝 Ser un Happener Significa pertenecer a una familia con principios integrales, donde el espíritu ágil, colaborador e innovador son el combustible que día tras día le inyectamos a nuestro corazón para hacer las cosas cada vez mejor. 🚀 Nuestros principios: We Care: Nos importa la gente, sus valores, principios, aprendizajes y creencias. We are not comfortable by being comfortable: No nos conformamos con la comodidad, queremos cambio, retos y tomar riesgos. We create and develop: Nuestro ADN está el crear oportunidades, servicios y productos para impactar al mundo. Desarrollamos talento y código. Crecimiento: Todos los happeners tenemos mentalidad de fundadores y dueños de Apiux. ¡Si Apiux crece, todos crecen! We embrace diversity: Incentivamos una cultura que hace que todos, sin importar las diferencias, sientan un ambiente de equidad, oportunidad e inclusión. 🌍 Compromiso con la diversidad e Inclusión En Apiux promovemos entornos de trabajo diversos, inclusivos y respetuosos 🤝. Garantizamos la igualdad de oportunidades sin distinción de género, edad, origen, orientación sexual, identidad de género, discapacidad u otra condición personal o social. En cumplimiento de la Ley Orgánica 3/2007, el Real Decreto Legislativo 1/2013 y la Ley 15/2022, animamos especialmente a postular a personas con discapacidad, en situación de pensión por incapacidad, y a colectivos históricamente subrepresentados. ¿Quieres ser un Happener e impactar el futuro con la Tecnología y tu Talento? ¡Esperamos tu postulación! Sé parte de la colmena, sé parte del cambio. 🐝🚀
-
04/09/2025
Madrid
En Rawson BPO impulsamos tu carrera profesional con nuevos retos. Únete a proyectos innovadores, tanto a nivel nacional como internacional, y trabaja con tecnologías de vanguardia. ¿Qué te ofrecemos? Contrato indefinido desde el primer día Salario competitivo y revisable periódicamente Formación continua en tecnologías IT e idiomas Plan de retribución flexible (tickets restaurante, transporte, etc.) Modalidad de Trabajo Remoto ¿Qué buscamos? Experiencia de 4-5 años como desarrollador Big Data Experiencia con las siguientes tecnologías : Scala Spark, SQL, Apache Airflow, Databricks, Qlickview, Impala, Starburst, Cloudera, S3 ¿Qué valoramos? Actitud proactiva y ganas de crecer Orientación al cliente y al trabajo en equipo Interés en seguir aprendiendo y desarrollándote profesionalmente ¡Si estás buscando una empresa donde se valore el trato cercano y personalizado, ¡Rawson BPO es para ti!