L'oferta de treball Ingeniero de Datos AWS + Teletrabajo ja no està disponible. Aquí hi són algunes ofertes similars:
  • 18/05/2022

    Comunitat Valenciana

    We seek new teammates with can-do attitude, creative mindset, curiosity, problem solving and thirst for knowledge. We'd welcome you with open arms! Reporting to Head of Data Engineering, your main objectives are: MAJOR AREAS OF ACCOUNTABILITY: Design and implement data pipelines to ingest heterogeneous data into the datalake / datawarehouse in different scenarios (batch, streaming, ...), managing large and complex data sets. Ensure data accuracy and correctness on the implemented pipelines. Create custom software components and analytics applications. In coordination and collaboration with the data insights team, in charge of the front-end and delivering data products, develop data preparation in order to be used for different purposes and use cases: reporting, machine learning, data sharing, ... and identify opportunities for data acquisition. In coordination and collaboration with the data governance team, explore ways to enhance data quality and reliability. Integrate up-and-coming data management and software engineering technologies into existing data structures. Use agile software development processes to iteratively make improvements to our back end systems. Ensure that all systems meet the business/company requirements as well as industry practices. INTERNAL AND EXTERNAL RELATIONSHIPS: Internal : All Business Services, Product Lines, Architecture, Security, Data Insights & Governance, IT Ops, QA External : IT Partners, External consultants PROFILE: PREVIOUS EXPERIENCE: Proven experience in data engineering or software engineering around data solutions in modern data architectures. EDUCATION LEVEL / CERTIFICATES: Bachelor or Engineering's degree level or higher. LANGUAGES: Written and verbal proficiency in English (mandatory). Other languages practice is appreciated (French, Spanish etc.). TECHNICAL SKILLS: Strong Python and SQL knowledge. Strong knowledge in data integration / ETLs and orchestration tools. Experience with relational SQL and NoSQL databases. Experience in cloud data platforms (GCP, AWS, Snowflake). Experience in continuous integration development techniques. WISHED: Good knowledge in other programming languages, like Java / Kotlin. Knowledge in frameworks to develop streaming pipelines: Kafka, Apache Beam, Spark, ... Knowledge in Terraform/Helm/K8s/Docker. Knowledge on BI and visualization tools. PERSONAL CHARACTERISTICS: Team player with a positive attitude and ability to collaborate effectively. Strong willed and self-motivated. Analytical mindset, process focused and structured. Proactive and self starting.

  • 23/05/2022

    Comunitat Valenciana

    Funciones Sopra Steria works to enable our clients' digital transformation and to do so we need to keep growing and contributing thanks to people like you. Our employees agree on the work environment and the great one team that we are at Sopra Steria. With more than 46.000 people working in 25 countries, our mission is to connect talent and technology, trying to help you to find a place where you can grow and develop all your potential. We require a Data Engineer highly skilled in database and ETL data pipelines development. The incumbent will be responsible for the re-design and implementation of the set of automated ETL pipelines, implementation of the analytics of the platform operations and importing new data sources: Work with the team (technical Lead/Architect/other team members) and customer focal point to understand the business need and design/implement the technical data management solution. Assist and work with the Solution Architect and Senior Data Warehouse Specialist to develop, test and deliver the various Work - Packages as further detailed below under "deliverables". Troubleshoot and remediate data problems affecting availability and functionality. Generate and retain relevant technical documentation related to the technical services provided during the project period. Efficiently collaborate with other team members and stakeholders. Ensure alignment with WIPO's technical standards and procedures. Deliver complete technical and user documentation. Refactor existing web analytics ETL pipeline to minimize inter-dependencies and remove hardcoded filters. Migrate metadata storage from S3 to Aurora and implement analytics on this data. Add additional data sources to the Data Platform, estimated time 1 month. Perform other related duties as required. Requisitos Skills: Hands-on experience writing code for Apache Spark with PySpark and Spark SQL (AWS Glue, Databricks, other Spark implementations) Extensive proven experience in data warehouse/ETL development: SQL, CTE, window functions, facts/dimensions High attention to detail Excellent communication skills; spoken and written English Good Understanding of Data engineering pipelines Knowledge of Data pipeline orchestrators and tools such as Azure Data Factory, Azure logic apps, and AWS Glue Knowledge of python Data pipeline development with Pyspark using Apache spark and Databricks Customer-centric approach to delivery and problem solving Se ofrece Because we know what you need... Taking part in innovative and demanding projects. Would you venture to learn something new? Amenities for you and your time. Work won't be everything! Enjoy our benefits and access our Flexible remuneration plan Freekys + Smart Sessions So that you feel as a part of the team: andjoy, padel, running and even a physio just in case Dare yourself to work in a different way and get to know us!

  • 18/05/2022

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    ¿Te apetece formar parte de una compañía en pleno crecimiento? ¿Y trabajar rodeado del mejor TALENTO en proyectos realmente innovadores? En SOLUTIO es posible y nos gustaría conocerte. Nos encontramos seleccionando a varias personas, para incorporarse, como Data Engineer, de forma estable y 100% en remoto en nuestro equipo en cliente en el sector deportivo. Valoramos contar, en mayor medida, con experiencia profesional en las siguientes skills: Programación con Python y Spark. Conocimiento avanzado con SQL. Experiencia en entornos 100% cloud, preferiblemente con Microsoft Azure (Databricks, Azure Datafactory, Storage Accounts, Azure Datalake Store...) Construcción de modelos de datos Big Data. Experiencia en CI/CD con Gitlab, Jenkins, Azure DevOps. Capacidad de análisis de datos, facilidad para identificación de incidencias o datos anómalos. Deseable, experiencia con Docker, Kubernetes y Power BI (Power Query, DAX). ¿Qué ofrecemos? Contrato indefinido con nosotros. 100% de teletrabajo. Salario negociable según experiencia y expectativas. Jornada completa flexible, incluyendo jornada intensiva los viernes y en verano. Mediante paquete retributivo flexible y de elección voluntaria: tarjeta restaurante, seguro médico, dental, cheque guardería. Disfrute de 22 días laborales de vacaciones por año trabajado. Seguimiento de tu bienestar, desarrollo y formación de forma personalizada desde nuestro equipo de Culture & People Experience. Si estás buscando un cambio profesional y quieres participar en proyectos innovadores con tecnologías punteras, ¡¡anímate y envíanos tu CV!!

  • 29/03/2022

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    Currently we collaborate with an important American live streaming platform founded in 2002 which is looking for a junior/mid NodeJS Engineer. Focus on video solutions, they ensure that brands connect with fans in an innovative way by delivering relevant interactive content and deeply interesting social experiences. It is a global and multilingual team that works to offer interaction solutions such as voting platforms, sweepstakes and contests, live streaming services. They were in charge of MET Gala streaming, and they have also collaborated with NASA or CocaCola. They are partners of important social media like Instagram, Twitch, TikTok and Facebook. Requirements: At least 2 years of experience with Node JS and React if possible Experience coding Microservices for AWS or other major cloud provider Exceptional troubleshooting and problem-solving skills Excellent communication skills and capable of working independently or on team. Able to communicate in English. Nice to have: Familiarity with database systems, both SQL and NoSQL. Experience with MySQL es a plus. Experiencee with Kafka and Big Data is a strong plus. Experience with Jenkins or another CI. Experience with testing frameworks such as (Jasmine, Protractor, Jest, Cucumber). Hands-on experience with AWS architecture and related services. Responsibilities: Implement and test robust technical solutions. Write clean code that's testable,maintainable, solves the right problem and does it well. The focus will be on API work with various partners and data management Deliver high-quality work within sprint cycles. The offer: Permanent contract. Salary range 30K-40K, depending on the experience. Flexible working hours. Full remote position from Spain - it's necessary going to Barcelona's offices at least every second month.

  • 18/05/2022

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    En EDNON buscamos un perfil de Ingeniero/a de Datos para un importante proyecto ubicado en Sevilla. Funciones principales: Manejo de herramientas de ingesta, productos de ETL y las técnicas de manipulación y consulta de datos que proporcionan soluciones Big Data. La parte más importante es la visualización de datos. Requisitos: Estudios mínimos: Grado superior. Valorable titulación universitaria grado/ ingeniería técnica. Experiencia mínima: Al menos 3 años. Experiencia y conocimientos en: Experiencia en proyectos de desarrollo de BI o analítica avanzada tomando parte en la labores de ingesta y preparación de datos. La parte más importante es la visualización de datos. Certificaciones requeridas: Valorable al menos una de las tres. Oracle Database SQL Certified Associate. Oracle Database Administratir Certified Associate. Certificación Oficial del producto software de inteligencia de negocio (BI) LUMADA ( Pentaho). Ofrecemos: Desarrollo profesional. Contatro indefinido. Seguro médico. Formación especializada para el correcto desempeño de la actividad. Buen ambiente de trabajo que permitirá aprender de un equipo de profesionales con amplia experiencia en el sector. Flexibilidad horaria y jornada de verano (intensiva de mañana). Posibilidad de teletrabajo 100%.

  • 06/05/2022

    Madrid

    Desde beonit trabajamos con una importante compañía de tecnología de la información bancaria que diseña, desarrolla y gestiona soluciones y servicios para diferentes entidades financieras. Estamos buscando un Data Analytics que trabaje con un ETL Tool vía pyspark de datos desde un Data Warehouse Oracle y logs en XML y JSON a Datalake en HDFS, Hive y HBase. Ayudando a implantar los modelos predictivos de venta, upselling, downselling, cross-selling y fuga de diferentes productos bancarios, aplicando inteligencia artificial. ¿Cuál será tu misión? Gestionar la experiencia en creación de consultas para facilitar la explotación de la información por parte del cliente solicitante. Qué necesitamos de ti Base de datos: Oracle, MySQL, Hbase. Lenguajes de programación: SQL, Javascript, R, Python y Spark. Conocimientos en herramientas Big Data: Hadoop, Spark, Hive, Real Time (Spark Streaming, Kafka, etc.) Experiencia en alguna plataforma de Business Intelligence (IBI, MicroStrategy, Qlick, Tableau, Grafana...) Experiencia en entornos bancarios. Experiencia en creación de consultas para facilitar la explotación de la información por parte del cliente solicitante. Qué podemos ofrecerte Crecimiento en un ambiente profesional en una multinacional junto a un equipo pionero. Formar parte de la transformación digital trabajando desde donde tú quieras y planificando tu propia gestión del tiempo. Si crees que eres la persona adecuada, no dejes pasar esta oportunidad. ¡Queremos conocerte!

  • 19/04/2022

    Catalunya

    We are looking for a Data Analyst, with strong experience in e-commerce. You would join to a green field, a fast growing Startup in Barcelona. You will be an important part for the creation of data team with a CDO reference in Spain. As a Data Analyst, you will reinforce their scaling data, guarantee data-driven decision-making, by providing tools and high quality data. Responsibilities Develop scalable data models, pipelines and DWH Architecture. Implements ETLs and batch processes. Implement data quality processes. Ensure data privacy and security compliance. Work with others departments to find solutions to their main business problems. Document your work in a scalable manner Requirements: Bachelor's or Master's degree in Statistics or Applied Mathematics or equivalent experience 2 - 3 years' Data Analyst experience Proficient in SQL(Bigquery), ETL, Python, Visualization (Data Studio, Looker, etc). Proactive and team player. Great communication skills. Goal oriented actitud. Nice to have: Experience in market place or social e-commerce. Experience in data cataloging. Knowledge Scala. Benefits: 100% Remote. Amazing office in Barcelona. International team. Flexible hours. Short day on Friday.

  • 02/05/2022

    Madrid

    Actualmente estamos buscando un Java Backend para incorporarse a uno de nuestros clientes. El puesto es totalmente estable y se realiza en remoto 100%. Los skills necesarios son las siguientes: Java 8 must, Java 11 deseable Spring framework: módulos mvc, boot, data. Security deseable. Arquitectura hexagonal/Domain Driven Development. BDD y TDD: estar orientado a desarrollo basado en test. Tanto unitarios como de aceptación. Experiencia en cucumber/Gherkin. CI/CD: modelo de integración continua con una única rama de desarrollo. Jenkins, Nexus, Sonar. Experiencia en arquitectura de microservicios con comunicación asíncrona: Event Driven Architecture. Experiencia en Kafka. Infraestructura cloud basada en AWS y kubernetes.

  • 25/04/2022

    Galícia

    En Rawson España buscamos un Analista Programador Java con spring boot en: Pontevedra. Descripción: Experiencia Senior. Deseable 4 años de experiencia Duración estimada del proyecto Al menos 6 meses tareas a realizar Desarrollo en proyectos, encargarse de diseños de complejidad media-baja, soporte técnico en la interlocución con cliente, soporte a compañeros en tareas de compejidad media. Requerimientos técnicos: Conocimientos técnicos Obligatoriedad Nivel requerido Notas / Aclaraciones Experiencia frameworks de desarrollo (Spring Boot, Spring MVC, Vert.X...) Obligatorio/Imprescindible Alto Experiencia aplicaciones basadas en colas y brokers (Kafka, MQ Queues, Rabbit MQ...) Deseable Bajo Conocimiento herramientas de integración (ESB, BPM, API Management...) Valorable Experiencia API Management diseñando y desarrollando APIs (REST, OAuth, Swagger o similar) Deseable Medio Experiencia desarrollo de software (java) Obligatorio/Imprescindible Alto Experiencia entornos CD/CI (Jenkins, Docker, Kubernetes, Nexus...) Deseable Medio Conocimiento sólido modelado en bases de datos relacionales y documentales (Oracle, Postgresql, NoSQL) Deseable Medio Conocimiento plataformas cloud (AWS, Azure, OpenStack...) Condiciones Laborales: Trabajo remeto para Pontevedra Salario a convenir de acuerdo a experiencia. contrato indefinido ¡Únete al equipo Rawson España! / ¡Apúntate en nuestra oferta! / ¡Inscríbete, te estamos esperando!

  • 26/05/2022

    Madrid

    Description: Desde Grupo Digital, estamos en búsqueda de un Analista Programador Spark/Scala para incorporarse a proyecto estable. Duración proyecto: Estable (larga duración). Ubicación: Madrid Modalidad de trabajo: 100% Teletrabajo. Tipo de contrato: Indefinido. Salario: A valorar en función de experiencia. Funciones: Desarrollo de procesos con Scala para procesamiento de datos y posterior reporte a los diferentes sistemas. Conocimientos imprescindibles: Amplia experiencia con spark y desarrollo con Scala. Grupo Digital Somos un grupo de empresas tecnológicas, formado actualmente por unos 400 profesionales, en distintas áreas: desarrollo, sistemas, ingeniería automática, consultoría... Si quieres impulsar tu carrera con un proyecto único de la mano de una multinacional de primerísimo nivel, no dudes en presentar tu candidatura. ¡Te esperamos!