Treball Esp. Big Data Python en Espanya

Estás son las últimas ofertas de trabajo de Esp. Big Data Python en Espanya encontradas.

 treballs

  • 07/06/2024

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    We are looking for a Data Engineer Expert in AWS Data Zone and Glue Professional with extensive knowledge and experience in data governance and data management in the Amazon Web Services cloud TASKS & RESPONSABILITIES Develop, implement and maintain data storage, processing and analysis solutions in the AWS cloud, using best practices and PaaS tools available. Collaborate with business, architecture, security and development teams to define the requirements, design and architecture of data solutions. Optimize the performance, scalability, reliability and security of data solutions, applying monitoring, automation, testing and data quality techniques. Resolve incidents, problems and doubts related to data solutions, providing technical support and documentation. Research and evaluate new technologies, trends and opportunities in the field of data in the AWS cloud, and propose improvements and innovations. Implement data governance frameworks, including governance operating models, on AWS PaaS components Migrate the implementation of governance and data quality from on-premise solutions to solutions based on AWS PaaS components Analyze business and technical requirements to define migration strategies for governance and data quality processes and existing ETLs to AWS Glue. Develop, test and deploy AWS Glue pipelines to implement data integration and transformation processes in AWS. Configure and optimize AWS Glue data catalogs, crawlers, triggers, and workflows to ensure efficiency, scalability, and reliability of AWS Glue solutions. Collaborate with other development, architecture, security, and operations teams to ensure integration and compliance of AWS Glue solutions with organizational policies and standards. Document AWS Glue solutions and provide support and training to end users and operations team. EXPERIENCE, KNOWLEDGE & SKILLS (Mandatory) Demonstrable experience of at least 3 years in the development and implementation of data solutions in the AWS cloud, using Data Zone, S3, Glue, Athena, Redshift, EMR, Kinesis, Lambda, etc. services. Minimum 3 years of experience in the development and operation of data integration and transformation solutions in big data environments, preferably with AWS Glue. Advanced knowledge of programming and scripting languages, such as Python, Java, Scala, SQL, etc. Advanced knowledge of agile methodologies, DevOps, CI/CD, and tools such as GIT, Jenkins, Terraform, etc. Valuable: official AWS certification. SOFT SKILLS Communication skills, teamwork, problem solving and continuous learning Knowledge of data governance, ideally with DAMA certification

  • 28/05/2024

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    Trabajarás como Data Architect Cloud responsable de integrar databricks con servicios en la nube en un importante cliente de uno de los principales grupos líder en infraestructuras sostenibles. ¿Cómo será tu día a día? Trabajar con partes interesadas para entender las necesidades de negocio y traducirlas en requisitos técnicos. Diseñar modelos de datos eficientes y escalables utilizando Databricks, optimizando para el procesamiento de grandes volúmenes de datos. Integrar Databricks con otros servicios de la nube (como AWS, Azure, Google Cloud) y seleccionar las tecnologías adecuadas para cumplir con los objetivos del proyecto. Crear y gestionar pipelines de datos utilizando Databricks para procesos ETL (Extract, Transform, Load) y ELT (Extract, Load, Transform). Monitorizar y ajustar el rendimiento de las soluciones implementadas en Databricks para garantizar la eficiencia y escalabilidad. Implementar automatizaciones para la ingesta, procesamiento y análisis de datos utilizando herramientas y scripts en Databricks. Integrar Databricks con otras herramientas de análisis de datos, almacenamiento y visualización. Crear y mantener notebooks en Databricks para el análisis de datos, desarrollo de modelos de machine learning y otros usos analíticos. Aplicar las mejores prácticas de seguridad en Databricks, incluyendo el control de acceso a datos y la protección de datos sensibles. Asegurar que las soluciones de datos en Databricks cumplan con las normativas y estándares de la industria. Colaborar con científicos de datos, ingenieros de datos y otros equipos técnicos para asegurar que las soluciones cumplen con los requisitos de todos los usuarios. Buscar oportunidades para mejorar continuamente la arquitectura y los procesos de datos para aumentar la eficiencia y reducir costos. ¿Qué te hará triunfar en la posición? Profundo conocimiento y experiencia en el uso de la plataforma Databricks. Habilidad en lenguajes como Python, Scala y SQL. Conocimientos en plataformas de nube como AWS, Azure y Google Cloud, y su integración con Databricks. Capacidad para diseñar modelos de datos y realizar análisis complejos. Conocimiento de las mejores prácticas en seguridad de datos y cumplimiento normativo. ¿Qué ofrecemos? Modalidad de trabajo 100% REMOTO. Jornada intensiva los viernes y de lunes a jueves horario partido. Posición estable, indefinida y de larga duración. Salario competitivo según la experiencia y lo que puedas aportar al proyecto. Oportunidades de formación en tecnologías punteras (Open Webinars). Clases de inglés con diferentes niveles, adaptadas a ti. Certificaciones pagadas en las últimas tendencias. Amplio abanico de retos y proyectos. Acceso a beneficios fiscales gracias a nuestro plan de Retribución Flexible (ticket restaurante, transporte, guardería y formación). Finalizar el contrato siempre es la última opción, buscamos entre la multitud de proyectos que tenemos otro que pueda interesarte. Seguimiento personalizado gracias al acompañamiento de nuestra figura de People Partner y un Business Manager. Trato cercano y seguimiento: vas a estar en constante comunicación con nosotros para saber cómo avanza el proyecto. ¡DA EL PASO PARA COMENZAR TU NUEVA ETAPA PROFESIONAL!

  • 23/05/2024

    Catalunya, Cantàbria, Madrid

    Buscamos Ingeniero/a del Dato: (Perfiles de al menos 3-4 años de experiencia en cuestiones de manipulación del dato y/o en Adelante). Precisamos que la persona haya conocido el trabajo en ecosistemas Cloud: (especialmente Azure Data / Data Factory etc...). Y todo ese trabajo de Ingestas / ETL (ya sea con Python o Scala o similares en Ecosistema Big Data). Se trata de un importante servicio para el largo plazo con esta tipología de servicios en andanza. Condiciones base: Proyecto estable y orientación a largo plazo. Contratación por Nosotros: Sandav Consultores, en prestación de servicios para compañía cliente consolidada en su sector. Formato mixto entre teletrabajo y presencialidad en oficinas de Nuevos Ministerios - Azca, (Madrid) o en Barcelona Capital. (2 o 3 días a la semana acudiendo a oficinas). Horario de oficina habitual con posibilidades de flexibilidad de entrada y de salida a concretar en fases posteriores. Salario Bruto Anual a contemplar entre ámbitos de 35.000 a 48.000 EUR/B Anuales (Aproximadamente), podrían llegar a contemplarse candidaturas levemente por encima si el perfil lo justifica. Funciones Principales / Perfil: Experiencia de al menos 3-4 años de experiencia en cuestiones de manipulación del dato y/o en Adelante Experiencia avanzada en: Python / PySpark / Scala... Buen conocimiento en entornos de Cloud Computing Se valorarán conocimientos de bases de datos (SQL) y herramientas ETL (SAS/DataStage/MS Azure...) Habilidades para comunicación a nivel funcional y técnico SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, que en resumen quiere decir que CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com

Cerca avançada