Treball Data Scientist Spark en Espanya

Estás son las últimas ofertas de trabajo de Data Scientist Spark en Espanya encontradas.

 treballs

  • 16/03/2023

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular, Un altre

    ¿Te gustaría seguir desarrollando tu carrera profesional como Data Engineer en una posición 100% remota? ¡Nosotros te ayudaremos a conseguirlo! Nos encontramos en búsqueda de varios perfiles de Data Engineer, para formar parte del equipo de uno de nuestros clientes: una de las 10 primeras consultoras tecnológicas españolas especializada en soluciones de transformación digital. Rol: Data Engineer Requisitos: Al menos dos (2) años de experiencia trabajando con Spark, Python Y Scala. ¿Qué podemos ofrecerte? Modalidad: 100% remota. Horario de oficina (con flexibilidad de entrada y salida). Posición estable, contrato indefinido (40h/semanales). Oportunidades de formación y amplio abanico de retos y proyectos. Acceso a beneficios fiscales gracias a nuestro plan de Retribución Flexible (ticket restaurante, transporte, guardería y formación). Finalizar el contrato siempre es la última opción, buscamos entre la multitud de proyectos que tenemos otro que pueda interesarte. Seguimiento personalizado gracias al acompañamiento de nuestra figura de People Partner y un Business Manager. Trato cercano y seguimiento: vas a estar en constante comunicación con nosotros para saber cómo avanza el proyecto. ¿Te gustaría formar parte de nuestro equipo? ¡Te estamos esperando!

  • 03/03/2023

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    Buscamos un/a data engineer senior - big data con unos 3 años de experiencia. Tecnologías: Spark, Scala, Java, Python, Kafka SQL, shell scripting Maven, Jenkings, GIT, Scrum, JIRA. Condiciones Laborales: Lugar de Trabajo: España. Tipo de Contrato: A Término Indefinido. Salario: A convenir de acuerdo a la experiencia

  • 01/03/2023

    Madrid

    Desde beonit trabajamos con una importante compañía de tecnología de la información bancaria que diseña, desarrolla y gestiona soluciones y servicios para diferentes entidades financieras. Estamos buscando un Data Analytics que trabaje con un ETL Tool vía PySpark de datos desde un Data Warehouse Oracle y Logs en XML y JSON a Datalake en HDFS, Hive y HBase. Ayudando a implantar los modelos predictivos de venta, upselling, downselling, cross-selling y fuga de diferentes productos bancarios, aplicando inteligencia artificial. ¿Cuál será tu misión? Gestionar la experiencia en creación de consultas para facilitar la explotación de la información por parte del cliente solicitante. Qué necesitamos de ti Base de datos: Oracle, MySQL, Hbase. Lenguajes de programación: SQL, JavaScript, R, Python y Spark. Conocimientos en herramientas Big Data: Hadoop, Spark, Hive, Real Time (Spark Streaming, Kafka, etc.) Experiencia en alguna plataforma de Business Intelligence (IBI, MicroStrategy, Qlick, Tableau, Grafana...) Experiencia en entornos bancarios. Experiencia en creación de consultas para facilitar la explotación de la información por parte del cliente solicitante. Qué podemos ofrecerte Crecimiento en un ambiente profesional en una multinacional junto a un equipo pionero. Formar parte de la transformación digital trabajando desde donde tú quieras y planificando tu propia gestión del tiempo. Si crees que eres la persona adecuada, no dejes pasar esta oportunidad. ¡Queremos conocerte!

  • 13/02/2023

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    Our client has a B2B product that helps companies increase product safety and quality along their supply chains. Their objective? Converting supplier qualification processes by changing the way supplier data is collected, processed, and shared among industry stakeholders. They monetize from its beginning, and its business model is scalable and profitable. They are expanding globally. For that reason, they are looking to grow their IT team of 15 to 25 people in a short time. Currently they are looking for two Senior Data Engineer, who will: This person will be responsible for the data life cycle, supporting developers and participating in new product development projects. Tasks: Managing the different Resources used for writing, running and maintaining our ETLs Creating and maintaining proper & secure Roles and Policies for our AWS Stack (S3, Glue, Redshift, Steps ...) Understanding the data needs of the company and planning along with the analysts how these needs are going to be translated into solid data structures Writing the required ETLs from scratch to help us building an effective Data Warehouse Maintaining the ETLs and assuring that their daily/weekly executions happen in a smooth & error-free manner Establish sane Sanity Checks to catch data anomalies in the ETLs as early as possible Constantly improve our data structures Must have Requirements: Good knowledge of the AWS IAM Policies (Roles, Groups, Resources etc) Experience with AWS Glue (ETL Service), S3 & Redshift Very good knowledge of Python & Pyspark Very good knowledge of SQL (preferably PostgreSQL) Founded experience writing ETLs in Python/Pyspark Desired: Experience working with APIs Knowledge of other programming languages is welcomed (e.g. Scala) Experience working with PARQUET files Experience working in AGILE Development Good communication skills (as you will be in permanent contact with analysts) Benefits Permanent contract Salary range: 50-65K Possibility of working either from home in Spain or at their offices (BCN center) International working environment Flexibility to use a wide range of innovative technologies Young and dynamic team who attach great importance to reliability, customer-oriented thinking, creativity, pragmatism, and open communication Possibility to shape with your ideas

  • 11/02/2023

    Madrid

    ¡Te estamos buscando! En Rawson BPO, estamos en búsqueda de un DATA ENGINEER SPECIALIST, en Madrid. Perfil: DATA ENGINEER SPECIALIST Requisitos: Ingenieros de Datos Especialistas, con 10-12 años de experiencia y conocimientos demostrables en SQL, Pyspark y Python, para eficientar la capa de datos. Condiciones: Contrato Indefinido Salario a convenir Trabajo Hibrido ¡Postúlate ahora!

  • 03/02/2023

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    ¿Te gustaría seguir desarrollando tu carrera profesional como Data Scientist Senior? ¿Buscas una posición estable y adaptada al 100% a tus necesidades personales/profesionales? Si es así, podrás ser pieza clave dentro de una gran multinacional líder en servicios de consultoría y servicios de tecnología de la información. ¿Quiénes somos? En Digital Talent Agency te ofrecemos desarrollar proyectos en empresas destacadas del sector tecnológico, encontrando el balance perfecto entre tu vida personal y profesional. Valoramos tu experiencia y ponemos el foco en la motivación, qué te gusta y en qué tipo de proyectos quieres participar. Formamos parte de Zemsania Global Group y juntos, contamos con más de 18 de años de experiencia en asesoramiento profesional a candidatos y búsqueda y selección de perfiles tecnológicos. ¿Qué buscamos? Perfil de data scientist con al menos 5 años de experiencia en un puesto similar. Nivel de inglés: avanzado Contar con NIE o permiso de trabajo en España. Experiencia en proyectos de analítica avanzada y machine learning. Dominio del lenguaje de programación Python. Conocimiento de modelado de datos, Databrick, Spark. Herramientas de visualización (PowerBI, Kibana, Grafana). Gestión y revisión de código: Git. Buenos conocimientos en escritura y análisis de SQLs. Experiencia de trabajo con herramientas colaborativas: Jira, Confluence Buen conocimiento de Stack; ELK. Conocimiento de la aplicación de Machine Learning en el ámbito de las operaciones de TI. Conocimiento y experiencia en bases de datos relacionales; ¿Cuáles serían las principales funciones/tareas? Formar parte de un equipo multidisciplinar: desarrollando, automatizando y creando herramientas, que ayuden a transformar la operación, digitalizando el servicio y mejorando la funcionalidad y estabilidad de ITOps. ¿Qué podemos ofrecerte? Modalidad híbrida o remota, posibilidad de adaptación en función a la necesidad y localización del empleado. Contratación directa por parte del cliente. Horario de oficina (con flexibilidad de entrada y salida). Posición estable, contrato indefinido. Salario Competitivo. Formación y retribución flexible. ¿Te gustaría formar parte de nuestro equipo? ¡Te estamos esperando!

Cerca avançada