Trabajo Esp. Big Data Python en España

Estás son las últimas ofertas de trabajo de Esp. Big Data Python en España encontradas.

 empleos encontrados

  • 26/06/2024

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    We are looking for a Data Engineer Expert in AWS Data Zone and Glue Professional with extensive knowledge and experience in data governance and data management in the Amazon Web Services cloud TASKS & RESPONSABILITIES Develop, implement and maintain data storage, processing and analysis solutions in the AWS cloud, using best practices and PaaS tools available. Collaborate with business, architecture, security and development teams to define the requirements, design and architecture of data solutions. Optimize the performance, scalability, reliability and security of data solutions, applying monitoring, automation, testing and data quality techniques. Resolve incidents, problems and doubts related to data solutions, providing technical support and documentation. Research and evaluate new technologies, trends and opportunities in the field of data in the AWS cloud, and propose improvements and innovations. Implement data governance frameworks, including governance operating models, on AWS PaaS components Migrate the implementation of governance and data quality from on-premise solutions to solutions based on AWS PaaS components Analyze business and technical requirements to define migration strategies for governance and data quality processes and existing ETLs to AWS Glue. Develop, test and deploy AWS Glue pipelines to implement data integration and transformation processes in AWS. Configure and optimize AWS Glue data catalogs, crawlers, triggers, and workflows to ensure efficiency, scalability, and reliability of AWS Glue solutions. Collaborate with other development, architecture, security, and operations teams to ensure integration and compliance of AWS Glue solutions with organizational policies and standards. Document AWS Glue solutions and provide support and training to end users and operations team. EXPERIENCE, KNOWLEDGE & SKILLS (Mandatory) Demonstrable experience of at least 3 years in the development and implementation of data solutions in the AWS cloud, using Data Zone, S3, Glue, Athena, Redshift, EMR, Kinesis, Lambda, etc. services. Minimum 3 years of experience in the development and operation of data integration and transformation solutions in big data environments, preferably with AWS Glue. Advanced knowledge of programming and scripting languages, such as Python, Java, Scala, SQL, etc. Advanced knowledge of agile methodologies, DevOps, CI/CD, and tools such as GIT, Jenkins, Terraform, etc. Valuable: official AWS certification. SOFT SKILLS Communication skills, teamwork, problem solving and continuous learning Knowledge of data governance, ideally with DAMA certification

  • 24/06/2024

    Madrid, Otro

    Trabajarás como Data Lead de un equipo de ingeniería de datos en un proyecto de un importante cliente japonés especializado en soluciones de productos automotrices (como el tren bala), servicios industriales y de salud. ¿Cómo será tu día a día? Dirigir al equipo de data engineer. Colaborar en la arquitectura de datos. Gestionar al equipo. ¿Qué te hará triunfar en la posición? Experiencia en la dirección de un equipo de ingenieros de datos. Sólidos conocimientos de arquitecturas de datos. Sólidos conocimientos en modelado de datos. Sólidos conocimientos en diseño e ingeniería de pipelines de datos. Experiencia con Python, SQL, AWS y Databricks. Inglés alto, en torno a un B2-C1, con fluidez para hablarlo. ¿Qué ofrecemos? Modalidad de trabajo híbrido en Madrid (zona Manuel Becerra). Posición estable, indefinida y de larga duración. Salario competitivo según la experiencia y lo que puedas aportar al proyecto. Oportunidades de formación en tecnologías punteras (Open Webinars). Clases de inglés con diferentes niveles, adaptadas a ti. Certificaciones pagadas en las últimas tendencias. Amplio abanico de retos y proyectos. Acceso a beneficios fiscales gracias a nuestro plan de Retribución Flexible (ticket restaurante, transporte, guardería y formación). Finalizar el contrato siempre es la última opción, buscamos entre la multitud de proyectos que tenemos otro que pueda interesarte. Seguimiento personalizado gracias al acompañamiento de nuestra figura de People Partner y un Business Manager. Trato cercano y seguimiento: vas a estar en constante comunicación con nosotros para saber cómo avanza el proyecto. ¡DA EL PASO PARA COMENZAR TU NUEVA ETAPA PROFESIONAL!

  • 28/05/2024

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    Trabajarás como Data Architect Cloud responsable de integrar databricks con servicios en la nube en un importante cliente de uno de los principales grupos líder en infraestructuras sostenibles. ¿Cómo será tu día a día? Trabajar con partes interesadas para entender las necesidades de negocio y traducirlas en requisitos técnicos. Diseñar modelos de datos eficientes y escalables utilizando Databricks, optimizando para el procesamiento de grandes volúmenes de datos. Integrar Databricks con otros servicios de la nube (como AWS, Azure, Google Cloud) y seleccionar las tecnologías adecuadas para cumplir con los objetivos del proyecto. Crear y gestionar pipelines de datos utilizando Databricks para procesos ETL (Extract, Transform, Load) y ELT (Extract, Load, Transform). Monitorizar y ajustar el rendimiento de las soluciones implementadas en Databricks para garantizar la eficiencia y escalabilidad. Implementar automatizaciones para la ingesta, procesamiento y análisis de datos utilizando herramientas y scripts en Databricks. Integrar Databricks con otras herramientas de análisis de datos, almacenamiento y visualización. Crear y mantener notebooks en Databricks para el análisis de datos, desarrollo de modelos de machine learning y otros usos analíticos. Aplicar las mejores prácticas de seguridad en Databricks, incluyendo el control de acceso a datos y la protección de datos sensibles. Asegurar que las soluciones de datos en Databricks cumplan con las normativas y estándares de la industria. Colaborar con científicos de datos, ingenieros de datos y otros equipos técnicos para asegurar que las soluciones cumplen con los requisitos de todos los usuarios. Buscar oportunidades para mejorar continuamente la arquitectura y los procesos de datos para aumentar la eficiencia y reducir costos. ¿Qué te hará triunfar en la posición? Profundo conocimiento y experiencia en el uso de la plataforma Databricks. Habilidad en lenguajes como Python, Scala y SQL. Conocimientos en plataformas de nube como AWS, Azure y Google Cloud, y su integración con Databricks. Capacidad para diseñar modelos de datos y realizar análisis complejos. Conocimiento de las mejores prácticas en seguridad de datos y cumplimiento normativo. ¿Qué ofrecemos? Modalidad de trabajo 100% REMOTO. Jornada intensiva los viernes y de lunes a jueves horario partido. Posición estable, indefinida y de larga duración. Salario competitivo según la experiencia y lo que puedas aportar al proyecto. Oportunidades de formación en tecnologías punteras (Open Webinars). Clases de inglés con diferentes niveles, adaptadas a ti. Certificaciones pagadas en las últimas tendencias. Amplio abanico de retos y proyectos. Acceso a beneficios fiscales gracias a nuestro plan de Retribución Flexible (ticket restaurante, transporte, guardería y formación). Finalizar el contrato siempre es la última opción, buscamos entre la multitud de proyectos que tenemos otro que pueda interesarte. Seguimiento personalizado gracias al acompañamiento de nuestra figura de People Partner y un Business Manager. Trato cercano y seguimiento: vas a estar en constante comunicación con nosotros para saber cómo avanza el proyecto. ¡DA EL PASO PARA COMENZAR TU NUEVA ETAPA PROFESIONAL!

Búsqueda avanzada