La oferta de trabajo Data Engineer (Cloud / Azure Data). Madrid (Teletrabajo Mixto) ya no está disponible

Aquí tienes ofertas de trabajo similares:

  • 22/05/2024

    Madrid

    En Sandav estamos buscando un Jefe de Rpoyecto con experiencia en el área de Big Data, BI, y Advanced Analytics para posición ESTABLE ubicada en Madrid, (3 días cada 2 semanas presencial, el resto en remoto). Buscamos: Un líder de proyectos con experiencia en la gestión de proyectos con conocimientos técnicos en entornos de Big Data, Business Intelligence, Data Value, Cloud y/o Advanced Analytics y con habilidades comunicativas que le permitan desenvolverse con interlocutores tanto técnicos como de negocio Funciones Principales: Mantenimiento de la comunicación con las áreas de tecnología y negocio en la gestión del proyecto Visión global de los desarrollos y coordinación de las personas involucradas en el proyecto para asegurar la correcta implementación, aplicando metodologías ágiles Seguimiento del avance del trabajo, del desempeño de los integrantes del equipo y de las diferentes iniciativas que pudieran surgir. Lo ideal, es encontrar un JP con: Experiencia como Jefe de Proyecto liderando equipos de diferentes tecnologías Conocimiento técnico-funcional del ámbito tecnológico e IT: ETL, BBDD y su explotación (SAS, SQL, DataStage, Oracle, Informatica....). Open minded ya que trabajamos con un alto número de tecnologías y entornos Amplio conocimiento de tratamiento, análisis y visualización del dato Experiencia en liderar y gestionar diferentes iniciativas simultáneamente Seguimiento de las tareas propias de los proyectos/servicios Proactividad y capacidad de respuesta ante las necesidades del cliente Excelentes habilidades de comunicación y trabajo en equipo Asignación y seguimiento de las tareas de los equipos de trabajo Alta capacidad de análisis y flexibilidad Capacidad para la elaboración de propuestas técnicas Sería VALORABLE, no necesario: Formación: estudios en carreras STEM Capacidad para adquirir conocimiento de negogio para dar respuesta a los requerimientos con soluciones técnicas basadas en datos Inglés

  • 06/06/2024

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    Desde Sandav estamos buscando un profesional con experiencia como Operador/a en BBDD para ayudar al actual equipo con la gestión y optimización de los servicios a las distintas áreas de negocio. (Proyecto en sector turismo) Posibilidad de teletrabajo 100% Requisitos Capaz para escribir y entender consultas SQL básicas, así como comprender la sintaxis de SQL para realizar tareas como la manipulación de datos, la creación y modificación de tablas, la gestión de usuarios y permisos, etc. Debes tener un buen entendimiento de los conceptos básicos de bases de datos relacionales y no relacionales y su funcionamiento, incluyendo tablas, índices, consultas SQL, normalización de bases de datos, transacciones y seguridad. Conocimientos específicos en bd PostgreSQL o MongoDB. Conocimiento entorno Cloud Azure. Bkp y recuperación de bd (y si llevo cosas de Metallic, pues cualquier tipo de bkp..) Monitorización y optimización de bd. Herramientas de ETL (por ejemplo Pentaho) Conocimientos de big data (por ejemplo snowflake) Se valorará experiencia en Power BI. Se ofrece: Posición puede ser en teletrabajo total Contrato indefinido desde el primer momento. Horario de oficina al uso con flexibilidad Seguro médico privado Salario abierto en función de experiencia y conocimientos aportados. (Siempre abiertos a negociar)

  • 07/06/2024

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    We are looking for a Data Engineer Expert in AWS Data Zone and Glue Professional with extensive knowledge and experience in data governance and data management in the Amazon Web Services cloud TASKS & RESPONSABILITIES Develop, implement and maintain data storage, processing and analysis solutions in the AWS cloud, using best practices and PaaS tools available. Collaborate with business, architecture, security and development teams to define the requirements, design and architecture of data solutions. Optimize the performance, scalability, reliability and security of data solutions, applying monitoring, automation, testing and data quality techniques. Resolve incidents, problems and doubts related to data solutions, providing technical support and documentation. Research and evaluate new technologies, trends and opportunities in the field of data in the AWS cloud, and propose improvements and innovations. Implement data governance frameworks, including governance operating models, on AWS PaaS components Migrate the implementation of governance and data quality from on-premise solutions to solutions based on AWS PaaS components Analyze business and technical requirements to define migration strategies for governance and data quality processes and existing ETLs to AWS Glue. Develop, test and deploy AWS Glue pipelines to implement data integration and transformation processes in AWS. Configure and optimize AWS Glue data catalogs, crawlers, triggers, and workflows to ensure efficiency, scalability, and reliability of AWS Glue solutions. Collaborate with other development, architecture, security, and operations teams to ensure integration and compliance of AWS Glue solutions with organizational policies and standards. Document AWS Glue solutions and provide support and training to end users and operations team. EXPERIENCE, KNOWLEDGE & SKILLS (Mandatory) Demonstrable experience of at least 3 years in the development and implementation of data solutions in the AWS cloud, using Data Zone, S3, Glue, Athena, Redshift, EMR, Kinesis, Lambda, etc. services. Minimum 3 years of experience in the development and operation of data integration and transformation solutions in big data environments, preferably with AWS Glue. Advanced knowledge of programming and scripting languages, such as Python, Java, Scala, SQL, etc. Advanced knowledge of agile methodologies, DevOps, CI/CD, and tools such as GIT, Jenkins, Terraform, etc. Valuable: official AWS certification. SOFT SKILLS Communication skills, teamwork, problem solving and continuous learning Knowledge of data governance, ideally with DAMA certification

  • 28/05/2024

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    Trabajarás como Data Architect Cloud responsable de integrar databricks con servicios en la nube en un importante cliente de uno de los principales grupos líder en infraestructuras sostenibles. ¿Cómo será tu día a día? Trabajar con partes interesadas para entender las necesidades de negocio y traducirlas en requisitos técnicos. Diseñar modelos de datos eficientes y escalables utilizando Databricks, optimizando para el procesamiento de grandes volúmenes de datos. Integrar Databricks con otros servicios de la nube (como AWS, Azure, Google Cloud) y seleccionar las tecnologías adecuadas para cumplir con los objetivos del proyecto. Crear y gestionar pipelines de datos utilizando Databricks para procesos ETL (Extract, Transform, Load) y ELT (Extract, Load, Transform). Monitorizar y ajustar el rendimiento de las soluciones implementadas en Databricks para garantizar la eficiencia y escalabilidad. Implementar automatizaciones para la ingesta, procesamiento y análisis de datos utilizando herramientas y scripts en Databricks. Integrar Databricks con otras herramientas de análisis de datos, almacenamiento y visualización. Crear y mantener notebooks en Databricks para el análisis de datos, desarrollo de modelos de machine learning y otros usos analíticos. Aplicar las mejores prácticas de seguridad en Databricks, incluyendo el control de acceso a datos y la protección de datos sensibles. Asegurar que las soluciones de datos en Databricks cumplan con las normativas y estándares de la industria. Colaborar con científicos de datos, ingenieros de datos y otros equipos técnicos para asegurar que las soluciones cumplen con los requisitos de todos los usuarios. Buscar oportunidades para mejorar continuamente la arquitectura y los procesos de datos para aumentar la eficiencia y reducir costos. ¿Qué te hará triunfar en la posición? Profundo conocimiento y experiencia en el uso de la plataforma Databricks. Habilidad en lenguajes como Python, Scala y SQL. Conocimientos en plataformas de nube como AWS, Azure y Google Cloud, y su integración con Databricks. Capacidad para diseñar modelos de datos y realizar análisis complejos. Conocimiento de las mejores prácticas en seguridad de datos y cumplimiento normativo. ¿Qué ofrecemos? Modalidad de trabajo 100% REMOTO. Jornada intensiva los viernes y de lunes a jueves horario partido. Posición estable, indefinida y de larga duración. Salario competitivo según la experiencia y lo que puedas aportar al proyecto. Oportunidades de formación en tecnologías punteras (Open Webinars). Clases de inglés con diferentes niveles, adaptadas a ti. Certificaciones pagadas en las últimas tendencias. Amplio abanico de retos y proyectos. Acceso a beneficios fiscales gracias a nuestro plan de Retribución Flexible (ticket restaurante, transporte, guardería y formación). Finalizar el contrato siempre es la última opción, buscamos entre la multitud de proyectos que tenemos otro que pueda interesarte. Seguimiento personalizado gracias al acompañamiento de nuestra figura de People Partner y un Business Manager. Trato cercano y seguimiento: vas a estar en constante comunicación con nosotros para saber cómo avanza el proyecto. ¡DA EL PASO PARA COMENZAR TU NUEVA ETAPA PROFESIONAL!

  • 16/05/2024

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    En Zemsania estamos en búsqueda de un Data Engineer con experiencia en entornos Azure para un proyecto dentro del Sector Seguros. Si cuentas con al menos 4 años de experiencia y posees habilidades en el desarrollo de datos en entornos Azure, ¡te estamos buscando! Requisitos: 4 años de experiencia conocimientos en lenguaje Pyspark y SQL. Experiencia mínima de 4 años como Data Engineer. Experiencia en entornos de datos Synapse. Conocimientos en el desarrollo de ETL en un entorno Azure. Experiencia previa en el Sector Seguros es un plus. Valorable/Deseable conocimientos en cualquier metodología de modelado, Kimball , SnowBall o Data Vault. Responsabilidades y funciones: Desarrollo de ETL en un entorno Azure. Colaborar en la implementación de soluciones de datos en entornos Azure. Optimización del rendimiento de los procesos de carga y transformación de datos. Colaborar con el equipo de desarrollo para cumplir con los requerimientos del proyecto. Beneficios: Salario competitivo acorde a experiencia y habilidades. Flexibilidad horaria favoreciendo la conciliación laboral. Contrato indefinido y posición estable. Posición 100% en remoto (opción a híbrida en Barcelona) Horario flexible de lunes a viernes 09 a 18h. Grandes posibilidades de crecimiento profesional y estabilidad laboral. Oportunidades de formación en tecnologías punteras (Open Webinars), con todo tipo de cursos e itinerarios para formarte desde un nivel principiante hasta avanzado. Clases de inglés con diferentes niveles, adaptadas a ti, con profesores nativos (Learnlight). Certificaciones en las últimas tendencias (SCRUM, ITIL, PMP...). Acceso a beneficios fiscales gracias a nuestro plan de Retribución Flexible (tickets restaurante, transporte, guardería y formación). Descuentos en multitud de productos y servicios (Universidad UNIR, Escape Rooms, Abono teatro, Cloud Edenred, Dogfy Diet, etc). Iniciativas corporativas de team building como torneos deportivos. Seguimiento personalizado en todo momento gracias al acompañamiento de nuestras figuras de People Partner y Business Manager. Si cumples con los requisitos y te apasiona el mundo de los datos en entornos Azure, no dudes en postularte. ¡Esperamos contar contigo para este proyecto emocionante en Zemsania! ¡Aplica hoy mismo y únete a nuestro equipo como Data Engineer en Azure para el Sector Seguros en Zemsania!

  • 24/06/2024

    Madrid, Otro

    Trabajarás como Data Lead de un equipo de ingeniería de datos en un proyecto de un importante cliente japonés especializado en soluciones de productos automotrices (como el tren bala), servicios industriales y de salud. ¿Cómo será tu día a día? Dirigir al equipo de data engineer. Colaborar en la arquitectura de datos. Gestionar al equipo. ¿Qué te hará triunfar en la posición? Experiencia en la dirección de un equipo de ingenieros de datos. Sólidos conocimientos de arquitecturas de datos. Sólidos conocimientos en modelado de datos. Sólidos conocimientos en diseño e ingeniería de pipelines de datos. Experiencia con Python, SQL, AWS y Databricks. Inglés alto, en torno a un B2-C1, con fluidez para hablarlo. ¿Qué ofrecemos? Modalidad de trabajo híbrido en Madrid (zona Manuel Becerra). Posición estable, indefinida y de larga duración. Salario competitivo según la experiencia y lo que puedas aportar al proyecto. Oportunidades de formación en tecnologías punteras (Open Webinars). Clases de inglés con diferentes niveles, adaptadas a ti. Certificaciones pagadas en las últimas tendencias. Amplio abanico de retos y proyectos. Acceso a beneficios fiscales gracias a nuestro plan de Retribución Flexible (ticket restaurante, transporte, guardería y formación). Finalizar el contrato siempre es la última opción, buscamos entre la multitud de proyectos que tenemos otro que pueda interesarte. Seguimiento personalizado gracias al acompañamiento de nuestra figura de People Partner y un Business Manager. Trato cercano y seguimiento: vas a estar en constante comunicación con nosotros para saber cómo avanza el proyecto. ¡DA EL PASO PARA COMENZAR TU NUEVA ETAPA PROFESIONAL!

  • 27/05/2024

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    Participaras como Data Engineer en las siguientes tareas: Dimensionamiento y definición de arquitecturas ELK Integración, transformación y optimización de orígenes Explotación de índices, modelos de ML, APM.. Proyectos, evolutivos y correctivos con cliente final Encuentra tu próxima oportunidad con nosotros. Pasa al siguiente nivel con Lanit. ¿Qué ofrecemos? Contrato indefinido Flexibilidad horaria Jornadas intensivas Desconexión digital horario no laboral Vacaciones por antigüedad Buen ambiente de trabajo: medidas de desconexión digital; vacaciones por antigüedad Inmejorables compañeros de viaje tanto internos como externos Formación y certificaciones Seguro médico privado En tu día a día.... Trabajarás dentro de un equipo multi-disciplinar, con un ambiente joven, de innovación, cercano y lleno de retos.

  • 24/06/2024

    Madrid, Otro

    Trabajarás como Senior Data Engineer en un proyecto de un importante cliente japonés especializado en soluciones de productos automotrices (como el tren bala), servicios industriales y de salud. ¿Cómo será tu día a día? Desarrollo y mejora de soluciones técnicas para responder a las necesidades en el marco de datos. Implementación de Data Pipelines, Procesos de Datos y APIs dentro de la Plataforma de Datos. Responsable de las Pruebas del Entorno de Desarrollo proporcionando pruebas base de los resultados. Apoyo a los ingenieros de control de calidad durante la fase de pruebas SIT en el entorno de pruebas y responsable del despliegue en producción. Apoyar al equipo en la resolución de problemas del entorno de producción con los Data Pipelines / REST APIs existentes. Documentación de las soluciones técnicas implementadas (a nivel de historia de usuario / nivel de catálogo de datos). ¿Qué te hará triunfar en la posición? 5 años de experiencia como Data Engineer. Conocimientos sólidos de arquitectura de datos / modelado de datos. Programación de datos en Python. Experiencia con base de datos relacional SQL. Experiencia con APIs REST y SOAP para Data Pipelines / ETL. GIT & CI/CD. Inglés alto, en torno a un B2-C1, con fluidez para hablarlo. ¿Qué ofrecemos? Modalidad de trabajo híbrido en Madrid (zona Manuel Becerra). Posición estable, indefinida y de larga duración. Salario competitivo según la experiencia y lo que puedas aportar al proyecto. Oportunidades de formación en tecnologías punteras (Open Webinars). Clases de inglés con diferentes niveles, adaptadas a ti. Certificaciones pagadas en las últimas tendencias. Amplio abanico de retos y proyectos. Acceso a beneficios fiscales gracias a nuestro plan de Retribución Flexible (ticket restaurante, transporte, guardería y formación). Finalizar el contrato siempre es la última opción, buscamos entre la multitud de proyectos que tenemos otro que pueda interesarte. Seguimiento personalizado gracias al acompañamiento de nuestra figura de People Partner y un Business Manager. Trato cercano y seguimiento: vas a estar en constante comunicación con nosotros para saber cómo avanza el proyecto. ¡DA EL PASO PARA COMENZAR TU NUEVA ETAPA PROFESIONAL!

  • 24/06/2024

    Madrid, Andalucía

    Porque trabajar en Sopra Steria, también es sentir Sopra Steria. Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España. Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente. Tenemos pasión por lo digital y al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo. Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo! Requisitos ¿Qué reto proponemos? Queremos incorporar al equipo a una persona que se encargue del desarrollo de los diferentes data pipelines, ingesta, transformación y preparación de los datos de diferentes fuentes dentro del datahub y productos data del cliente. Para ello, en este proyecto se utiliza DataStage como ETL principal. Tecnologías del proyecto: DataStage (11.7 / designer / monitor) Linux Red Hat / Shell Unix / MobaXterm / Putty Oracle / SQL Developper Big data: Hadoop, Scala... Flows CFT / GPG JIRA, Confluence, Teams GIT Horario flexible: Entrada de 8 a 9:30 y salida a partir de las 17:00. Viernes de 8 a 15:00 (Jornada intensiva en verano) ¿Qué buscamos? Experiencia de al menos 3 años con los entornos mencionados Nivel de inglés mínimo B2 (no es necesaria certificación, pero si poder trabajar en dicho idioma de manera fluida). Se ofrece ¿Qué ofrecemos? ¿Qué tenemos para ti? Contrato indefinido y jornada completa 23 días de vacaciones Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más! Seguro de vida y de accidentes Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación) Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas Onboarding personalizado y detallado. Te acompañamos en todo momento para que te sientas #soprano desde el primer momento. Oficina con espacios reservados al ocio. ¡Trabajo y diversión unido! Compañerismo y buen ambiente, el poder de la unión lo tenemos presente. Y lo más importante...Tienes la posibilidad de desarrollar tu carrera profesional con nosotros: Crearemos juntos un plan de carrera personalizado. Te formarás, marcaremos objetivos y llevaremos a cabo un seguimiento para asegurarnos de que lo conseguimos juntos. Escuchamos tus prioridades y luchamos por ellas. ¡Aquí tu voz importa! ¡Únete a nosotros y sé parte de algo más! The world is how we shape it

  • 06/05/2024

    Madrid

    Funciones Porque trabajar en Sopra Steria, también es sentir Sopra Steria Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España. Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente. Tenemos pasión por lo digital y al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo. Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo! ¿Qué reto proponemos? Trabajar para un importante cliente del sector bancario, con flexibilidad y posibilidad de teletrabajar 100%. Las funciones que realizaría serían la de ingeniero de datos ayudando en la construcción de la plataforma de datos de la compañía, migraciones desde otras plataformas de datos, procesamiento de datos, transformación, análisis e implementación de modelos de datos, análisis e implementación de nuevos servicios. Requisitos ¿Qué buscamos? El proyecto actualmente se desarrolla en las nubes públicas de Azure y AWS. Se necesitan personas con experiencia en trabajar con datos en servicios analíticos en estas nubes y con conocimientos en SQL, Python y PySpark. Conocimientos en servicios analíticos AWS y deseables en Azure. Se ofrece: ¿Qué tenemos para ti? Contrato indefinido y jornada completa 23 días de vacaciones Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más! Seguro de vida y de accidentes Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación)