La oferta de trabajo Data Engineer ya no está disponible. Aquí tienes algunas ofertas similares:
  • 15/06/2022

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    We are a new born venture builder, focused on building new businesses, trying to revolutionize the related industries using the benefits of Decentralized Ledger Technologies (DLT) and Blockchain. We see blockchain, smart contracts as a meta-technology with a huge potential and real applicability. Based on our experience on Banking, Regulation, Product management and Software development we will try to shape the future. To be able to reach our goals, building the right team is the base for success. A good venture will be consequence of having the best performing team. We are creating an environment where you can get your maximun potential, where people matters and where transparency is on the ADN. Requirements: We are searching for good people that, first of all, fit our culture and mindset, and second, add their experience and expertise to our team. These are the skills we are looking for: Your attitude will determine our altitude. Building new ideas, based on complex technologies and industries, will be challenging. The team is key for success and your ideas, positivity and group focus, will make the difference. We are interested in your knowledge but your capacity is more important for us. The are tons of technologies around... The way you tackle and use them, will make the difference. We are trying to get the right balance between attitude and aptitude. Research and learning capabilities. Blockchain space is very new and is evolving very fast. Staying on the trends is key, to help us to make the right decisions. Distributed Ledger Technology and Dapp development experience is very welcome! ... But Don't worry if you have no idea. We will teach you what we know, and learn together. You think that understanding the business domain, language and opportunities is key to define the best solutions. Minimum 3.5 years experience in Data aggregation, ETL implementation, and Data Visualization Minimum 3-5 years experience in Backend development languages. Python, Java and others, You are or willing to be, a language polyglot, due to the importance of getting the best of different technological stacks to create good solutions. Agile development experience with Lean, Scrum, XP etc. Data engineering Open Source tools knowledge and daily usage You have experience in data collection automation work from REST/GraphQL APIs, Flat Files, Database, etc. You are also comfortable with GIT and GitHub. Relational and Non relational database development experience. Event streaming architecture experience, gathering events and building data storage ELK, RabbitMQ handson experience Experience with developing Data lakes in AWS Experience with Visualization tools and ecosystems like apache superset, tableau, looker, power bi, treasure data Proven knowledge with third party data gathering, Google Analytics, Segment, Email providers, Apis etc Experience with working with data pipelines, ETLs like AWS glue Experience with database technologies such as Postgres, MongoDB, Apache Druid, Neo4J. Redshift Experience with Storage systems e.g AWS S3, Parquet Files, time series data Experience deploying with cloud infrastructure providers like AWS Knowledge of big data security best practices Experience working with multiple layer7 protocols, GraphQL, HTTP-Rest, GRPC Fluent English Plus: If you fit these specs, you are ready to be part of the team! But if you can bring one or several of the following as a plus, what are you waiting to work with us? You are passionate about automation. Aspiring Software Craftsman. NFT market proven experience. Event driven architecture design experience. Domain Driven Design practitioner. Experience with blockchain technologie Interest / experience with Big data topics, experience with Docker Experience in deploying blockchain infrastructure Experience building SaaS applications Offer: Challenging projects and enviroment. Innovation and build new business with your own hands. Flat organization and short decision paths. Flexible working hours. Remote working (Based on team needs). Remote work financial aid. We are challenge oriented. Social benefits: Flexible Payment Plan, medical insurance and others. 25 vacation days. 2 free days for conference/courses + Budget.

  • 06/06/2022

    Comunidad Valenciana

    Funciones Sopra Steria works to enable our clients' digital transformation and to do so we need to keep growing and contributing thanks to people like you. Our employees agree on the work environment and the great one team that we are at Sopra Steria. With more than 46.000 people working in 25 countries, our mission is to connect talent and technology, trying to help you to find a place where you can grow and develop all your potential. We require a Data Engineer highly skilled in database and ETL data pipelines development. The incumbent will be responsible for the re-design and implementation of the set of automated ETL pipelines, implementation of the analytics of the platform operations and importing new data sources: Work with the team (technical Lead/Architect/other team members) and customer focal point to understand the business need and design/implement the technical data management solution. Assist and work with the Solution Architect and Senior Data Warehouse Specialist to develop, test and deliver the various Work - Packages as further detailed below under "deliverables". Troubleshoot and remediate data problems affecting availability and functionality. Generate and retain relevant technical documentation related to the technical services provided during the project period. Efficiently collaborate with other team members and stakeholders. Ensure alignment with WIPO's technical standards and procedures. Deliver complete technical and user documentation. Refactor existing web analytics ETL pipeline to minimize inter-dependencies and remove hardcoded filters. Migrate metadata storage from S3 to Aurora and implement analytics on this data. Add additional data sources to the Data Platform, estimated time 1 month. Perform other related duties as required. Requisitos Skills: Hands-on experience writing code for Apache Spark with PySpark and Spark SQL (AWS Glue, Databricks, other Spark implementations) Extensive proven experience in data warehouse/ETL development: SQL, CTE, window functions, facts/dimensions High attention to detail Excellent communication skills; spoken and written English Good Understanding of Data engineering pipelines Knowledge of Data pipeline orchestrators and tools such as Azure Data Factory, Azure logic apps, and AWS Glue Knowledge of python Data pipeline development with Pyspark using Apache spark and Databricks Customer-centric approach to delivery and problem solving Se ofrece Because we know what you need... Taking part in innovative and demanding projects. Would you venture to learn something new? Amenities for you and your time. Work won't be everything! Enjoy our benefits and access our Flexible remuneration plan Freekys + Smart Sessions So that you feel as a part of the team: andjoy, padel, running and even a physio just in case Dare yourself to work in a different way and get to know us!

  • 15/06/2022

    Madrid

    Seleccionamos un DATA ENGINEER experto en Talend para importante proyecto. Experiencia de al menos 4 años trabajando con: Ingesta ETLs Calidad con Talend Experiencia con AWS, Azure o GCP Python Spark BBDD (SQL y NoSQL)

  • 18/05/2022

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    En EDNON buscamos un perfil de Ingeniero/a de Datos para un importante proyecto ubicado en Sevilla. Funciones principales: Manejo de herramientas de ingesta, productos de ETL y las técnicas de manipulación y consulta de datos que proporcionan soluciones Big Data. La parte más importante es la visualización de datos. Requisitos: Estudios mínimos: Grado superior. Valorable titulación universitaria grado/ ingeniería técnica. Experiencia mínima: Al menos 3 años. Experiencia y conocimientos en: Experiencia en proyectos de desarrollo de BI o analítica avanzada tomando parte en la labores de ingesta y preparación de datos. La parte más importante es la visualización de datos. Certificaciones requeridas: Valorable al menos una de las tres. Oracle Database SQL Certified Associate. Oracle Database Administratir Certified Associate. Certificación Oficial del producto software de inteligencia de negocio (BI) LUMADA ( Pentaho). Ofrecemos: Desarrollo profesional. Contatro indefinido. Seguro médico. Formación especializada para el correcto desempeño de la actividad. Buen ambiente de trabajo que permitirá aprender de un equipo de profesionales con amplia experiencia en el sector. Flexibilidad horaria y jornada de verano (intensiva de mañana). Posibilidad de teletrabajo 100%.

  • 23/06/2022

    Madrid

    Description: Desde Grupo Digital, estamos en búsqueda de un Arquitecto/a Big Data. Duración proyecto: Estable (Larga duración / Sin fecha fin) Ubicación: Madrid Tipo de contrato: Contrato indefinido Modalidad de trabajo: 100% Teletrabajo Salario: A valorar Conocimientos imprescindibles: Senior Data Architect Haddop, HUE(Hive&Impala), sqoop, Spark, GIT para versionado, github para repositorios y JIRA Experiencia en GCP (Google Cloud Platform) Experto en PySpark. Grupo Digital Somos un grupo de empresas tecnológicas, formado actualmente por unos 400 profesionales, en distintas áreas: desarrollo, sistemas, ingeniería automática, consultoría... Si quieres impulsar tu carrera con un proyecto único de la mano de una multinacional de primerísimo nivel, no dudes en presentar tu candidatura. ¡Te esperamos!

  • 08/06/2022

    Madrid

    Seleccionamos Data Engineer con conocimientos contrastados en Azure Databricks para incorporarse a la plantilla de cliente líder en el área de Data Analytics. Funciones y Tareas Diseño y desarrollo de procesos de integración de datos con Python en Kubernetes o Databricks (Spark). Orquestación con DataFactory. Diseño y construcción de modelos de datos tanto small data (SQL Server) como Big Data (Databricks). · Identificación y generalización de componentes reutilizables. Pruebas de despliegues en diferentes entornos. · Diseño y construcción de informes en Power BI u otras herramientas similares. · Análisis de datos y generación de insights para las áreas de negocio internas o de cualquier otro cliente. Conocimientos Experiencia superior a 5 años en el desarrollo de procesos de integración de datos y construcción de cuadros de mando de los que al menos 2 sean en la plataforma Microsoft Azure. · Experiencia en programación con Python y Spark (Databricks). · Conocimiento avanzado de SQL. · Experiencia en Power BI (Power Query, DAX). · Experiencia en integración/distribución continua (CD/CI) con GitLab. OFRECEMOS: ​ Contrato indefinido Oferta económica: Remuneración muy competitiva. A negociar en función de la experiencia aportada Buen paquete de beneficios sociales Muy buen ambiente Gran flexibilidad Localización: Madrid Horario: Flexible. L-J: entre 8:00 a 10:00 hasta 17:30-19:00h. V - julio - agosto: de 8:00 a 15:00 Posibilidad de combinar remoto y presencial.

  • 23/05/2022

    Comunidad Valenciana

    Funciones Sopra Steria works to enable our clients' digital transformation and to do so we need to keep growing and contributing thanks to people like you. Our employees agree on the work environment and the great one team that we are at Sopra Steria. With more than 46.000 people working in 25 countries, our mission is to connect talent and technology, trying to help you to find a place where you can grow and develop all your potential. We require a Data Engineer highly skilled in database and ETL data pipelines development. The incumbent will be responsible for the re-design and implementation of the set of automated ETL pipelines, implementation of the analytics of the platform operations and importing new data sources: Work with the team (technical Lead/Architect/other team members) and customer focal point to understand the business need and design/implement the technical data management solution. Assist and work with the Solution Architect and Senior Data Warehouse Specialist to develop, test and deliver the various Work - Packages as further detailed below under "deliverables". Troubleshoot and remediate data problems affecting availability and functionality. Generate and retain relevant technical documentation related to the technical services provided during the project period. Efficiently collaborate with other team members and stakeholders. Ensure alignment with WIPO's technical standards and procedures. Deliver complete technical and user documentation. Refactor existing web analytics ETL pipeline to minimize inter-dependencies and remove hardcoded filters. Migrate metadata storage from S3 to Aurora and implement analytics on this data. Add additional data sources to the Data Platform, estimated time 1 month. Perform other related duties as required. Requisitos Skills: Hands-on experience writing code for Apache Spark with PySpark and Spark SQL (AWS Glue, Databricks, other Spark implementations) Extensive proven experience in data warehouse/ETL development: SQL, CTE, window functions, facts/dimensions High attention to detail Excellent communication skills; spoken and written English Good Understanding of Data engineering pipelines Knowledge of Data pipeline orchestrators and tools such as Azure Data Factory, Azure logic apps, and AWS Glue Knowledge of python Data pipeline development with Pyspark using Apache spark and Databricks Customer-centric approach to delivery and problem solving Se ofrece Because we know what you need... Taking part in innovative and demanding projects. Would you venture to learn something new? Amenities for you and your time. Work won't be everything! Enjoy our benefits and access our Flexible remuneration plan Freekys + Smart Sessions So that you feel as a part of the team: andjoy, padel, running and even a physio just in case Dare yourself to work in a different way and get to know us!

  • 16/06/2022

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    ¿Quieres formar parte de un equipo puntero con proyectos dinámicos? En Yeeply, estamos buscando un Desarrollador Backend con NodeJS, para un importante cliente, ¿te animas? Requisitos: Experiencia en Node.JS y JavaScript Sólidos conocimientos de bases de datos (SQL, GraphQL, NoSql, etc.) Diseñar, construir y mantener sistemas escalables, fiables y de alto rendimiento Escribir código seguro, escalable y documentado con pruebas automatizadas Experiencia trabajando con y diseñando APIs Experiencia en el escalado de productos Mentalidad de desarrollo ágil de productos Automatización de pruebas Conocimientos de DevOps Lo que te haría increíble: Experiencia o conocimientos de Typescript Experiencia en otro lenguaje (PHP o Python) Sistemas de mensajería como RabbitMq, AWS SQS o Kafka Experiencia con servicios de AWS (ECS, Fargate, etc.) Experiencia en microservicios Lo que ofrecemos, entre otras cosas: Un contrato indefinido Beneficios sociales. Conciliación de la vida laboral y personal, apoyada por el trabajo totalmente a distancia. Desarrollo de carrera y formación constante, para estar siempre al día de las últimas tecnologías y tendencias del mundo digital. Salario negociable en función de la experiencia. Beneficios y descuentos como parte de nuestro Club Yeeply, incluyendo eventos, vacaciones, compras diarias y regalos. Please send your CV in English ¡Estamos deseando saber de ti!

  • 16/06/2022

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    ¿Quieres formar parte de un equipo puntero con proyectos dinámicos? En Yeeply, estamos buscando un Desarrollador Fullstack con React & NodeJS, para un importante cliente, ¿te animas? Typescript - CI/CD a AWS. Frontend: React JS/Native Backend: Node, arquitectura de microservicios basada en eventos y Python Base de datos: MySql/Postgres y GraphQL. Como uno de nuestros Fullstack deberás: Construir funcionalidades que aporten valor Automatizar tareas Construir interfaces de usuario Requisitos: Experiencia en Node.JS y React JS Sólidos conocimientos de bases de datos (SQL, GraphQL, NoSql etc) Experiencia trabajando con y diseñando APIs Mentalidad ágil. Capacidad para crear prototipos rápidos y entender cómo estos difieren del código de nivel de producción Automatización de pruebas Capacidad para trabajar en un entorno cambiante Nivel B2 de Inglés. Comportamientos ideales: No estás casado con una tecnología y eliges la herramienta adecuada para cada projecto Te gusta moverte rápido y causar impacto Lo que te haría increíble: Experiencia en otros lenguajes (Typescript, PHP o Python) Cualquier experiencia en móviles (react native) Experiencia con servicios de AWS (S3, Aurora, ECS, SQS, API Gateway, etc) Sistemas de mensajería como RabbitMq, AWS SQS o Kafka Experiencia en microservicios Lo que ofrecemos, entre otras cosas Un contrato indefinido Beneficios sociales. Conciliación de la vida laboral y personal, apoyada por el trabajo totalmente a distancia. Desarrollo de carrera y formación constante, para estar siempre al día de las últimas tecnologías y tendencias del mundo digital. Salario negociable en función de la experiencia. Beneficios y descuentos como parte de nuestro Club Yeeply, incluyendo eventos, vacaciones, compras diarias y regalos. Please send your CV in English ¡Estamos deseando saber de ti!

  • 01/06/2022

    Madrid

    Description: Desde Grupo Digital seleccionamos perfiles Data Scientist para proyecto en Madrid. Jornada completa. Tipo de contrato: Indefinido Duración del proyecto: Estable Minimum requirements: Lenguajes de programación (Python, R). Jupyter. Spark. Herramientas de visualización (Tableau, PowerBI, Kibana, Grafana) Gestión y revisión de código: Git. Stack ELK. - SQL (Oracle, MySQL, PostgreSQL). Herramientas Colaborativas: Jira, Confluence. Idiomas - inglés alto. Conocimientos de aplicación de Machine Learning en el ámbito de operaciones IT. Grupo Digital Somos un grupo de empresas tecnológicas, formado actualmente por unos 400 profesionales, en distintas áreas: desarrollo, sistemas, ingeniería automática, consultoría... Si quieres impulsar tu carrera con un proyecto único de la mano de una multinacional de primerísimo nivel, no dudes en presentar tu candidatura. ¡Te esperamos!