Treball Esp. Big Data en Espanya

Estás son las últimas ofertas de trabajo de Esp. Big Data en Espanya encontradas.

 treballs

  • 22/06/2024

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    Desde Sandav estamos en búsqueda de un/a Analista Programador/a PowerBuilder para proyecto ESTABLE en TELETRABAJO. Rol: Analista Programador/a PowerBuilder (Teletrabajo) Ofrecemos: El horario es L a J mañana y tarde, con V intensivo. Horario flexible. Se requiere al menos cuatro (4) años de experiencia en desarrollo con PowerBuilder, y PL/SQL. Se ofrece: Muy buen ambiente laboral. Modalidad de trabajo: remoto. Salario: 38.000 - 40.000 br/año + contrato indefinido con nosotros, Sandav.

  • 17/06/2024

    Madrid

    En Sopra Steria trabajamos para hacer posible la transformación digital de nuestros clientes y para conseguirlo necesitamos seguir creciendo y sumando gracias a personas como tú. Actualmente buscamos incorporar un perfil de Experto en Gobierno del Dato Requisitos No buscamos la perfección, pero nos gustaría que tuvieras: Candidato/a con al menos tres (3) años de experiencia en proyectos de Gobierno del dato. Con formación en matemáticas, estadística, ingenierías varias o informática Experiencia en implantación de proyectos de Gobierno del dato: Definición de estrategia de gobierno de datos, selección de herramientas, definición de roles y responsabilidades, procesos y políticas de gobernanza Experiencia en el uso de herramientas de gobierno del dato (Informatica, IBM, Colibra, otros) Se valorará experiencia en implantación de herramientas de gobierno del dato Experiencia trabajando directamente con clientes, entendiendo la visión de negocio Se ofrece Porque sabemos lo que necesitas... Facilidades para ti, para tu tiempo. ¡No todo va a ser trabajo! Participa en proyectos retadores. ¿Te animas a aprender algo nuevo? Crece con un programa de desarrollo continúo personalizado Disfruta de nuestros Beneficios y accede al Plan de retribución flexible Smart Sessions ¿Tienes algo que contarnos? ¡Atrévete a trabajar de una forma diferente y conócenos!

  • 07/06/2024

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    We are looking for a Data Engineer Expert in AWS Data Zone and Glue Professional with extensive knowledge and experience in data governance and data management in the Amazon Web Services cloud TASKS & RESPONSABILITIES Develop, implement and maintain data storage, processing and analysis solutions in the AWS cloud, using best practices and PaaS tools available. Collaborate with business, architecture, security and development teams to define the requirements, design and architecture of data solutions. Optimize the performance, scalability, reliability and security of data solutions, applying monitoring, automation, testing and data quality techniques. Resolve incidents, problems and doubts related to data solutions, providing technical support and documentation. Research and evaluate new technologies, trends and opportunities in the field of data in the AWS cloud, and propose improvements and innovations. Implement data governance frameworks, including governance operating models, on AWS PaaS components Migrate the implementation of governance and data quality from on-premise solutions to solutions based on AWS PaaS components Analyze business and technical requirements to define migration strategies for governance and data quality processes and existing ETLs to AWS Glue. Develop, test and deploy AWS Glue pipelines to implement data integration and transformation processes in AWS. Configure and optimize AWS Glue data catalogs, crawlers, triggers, and workflows to ensure efficiency, scalability, and reliability of AWS Glue solutions. Collaborate with other development, architecture, security, and operations teams to ensure integration and compliance of AWS Glue solutions with organizational policies and standards. Document AWS Glue solutions and provide support and training to end users and operations team. EXPERIENCE, KNOWLEDGE & SKILLS (Mandatory) Demonstrable experience of at least 3 years in the development and implementation of data solutions in the AWS cloud, using Data Zone, S3, Glue, Athena, Redshift, EMR, Kinesis, Lambda, etc. services. Minimum 3 years of experience in the development and operation of data integration and transformation solutions in big data environments, preferably with AWS Glue. Advanced knowledge of programming and scripting languages, such as Python, Java, Scala, SQL, etc. Advanced knowledge of agile methodologies, DevOps, CI/CD, and tools such as GIT, Jenkins, Terraform, etc. Valuable: official AWS certification. SOFT SKILLS Communication skills, teamwork, problem solving and continuous learning Knowledge of data governance, ideally with DAMA certification

  • 06/06/2024

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    Desde Sandav estamos buscando un profesional con experiencia como Operador/a en BBDD para ayudar al actual equipo con la gestión y optimización de los servicios a las distintas áreas de negocio. (Proyecto en sector turismo) Posibilidad de teletrabajo 100% Requisitos Capaz para escribir y entender consultas SQL básicas, así como comprender la sintaxis de SQL para realizar tareas como la manipulación de datos, la creación y modificación de tablas, la gestión de usuarios y permisos, etc. Debes tener un buen entendimiento de los conceptos básicos de bases de datos relacionales y no relacionales y su funcionamiento, incluyendo tablas, índices, consultas SQL, normalización de bases de datos, transacciones y seguridad. Conocimientos específicos en bd PostgreSQL o MongoDB. Conocimiento entorno Cloud Azure. Bkp y recuperación de bd (y si llevo cosas de Metallic, pues cualquier tipo de bkp..) Monitorización y optimización de bd. Herramientas de ETL (por ejemplo Pentaho) Conocimientos de big data (por ejemplo snowflake) Se valorará experiencia en Power BI. Se ofrece: Posición puede ser en teletrabajo total Contrato indefinido desde el primer momento. Horario de oficina al uso con flexibilidad Seguro médico privado Salario abierto en función de experiencia y conocimientos aportados. (Siempre abiertos a negociar)

  • 29/05/2024

    Madrid

    Seleccionamos Data Engineer con conocimientos contrastados en Azure Databricks para incorporarse a la plantilla de cliente líder en el área de Data Analytics. Rol: Data Engineer - Azure Environment Funciones y Tareas: Diseño y desarrollo de procesos de integración de datos con Python en Kubernetes o Databricks (Spark). Orquestación con DataFactory. Diseño y construcción de modelos de datos tanto small data (SQL Server) como Big Data (Databricks). · Identificación y generalización de componentes reutilizables. Pruebas de despliegues en diferentes entornos. · Diseño y construcción de informes en MS Power BI u otras herramientas similares. · Análisis de datos y generación de insights para las áreas de negocio internas o de cualquier otro cliente. Conocimientos: Experiencia superior a cinco (5) años en el desarrollo de procesos de integración de datos y construcción de cuadros de mando de los que al menos 2 sean en la plataforma Microsoft Azure. · Experiencia en programación con Python y Spark (Databricks). · Conocimiento avanzado de SQL. · Experiencia en MS Power BI (Power Query, DAX). · Experiencia en integración/distribución continua (CD/CI) con GitLab. OFRECEMOS: Contrato indefinido Oferta económica: Remuneración muy competitiva. A negociar en función de la experiencia aportada Buen paquete de beneficios sociales Muy buen ambiente Gran flexibilidad Localización: Madrid Horario: Flexible. L-J: entre 8:00 a 10:00 hasta 17:30-19:00h. V - julio - agosto: de 8:00 a 15:00 Posibilidad de combinar remoto y presencial.

  • 28/05/2024

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    Trabajarás como Data Architect Cloud responsable de integrar databricks con servicios en la nube en un importante cliente de uno de los principales grupos líder en infraestructuras sostenibles. ¿Cómo será tu día a día? Trabajar con partes interesadas para entender las necesidades de negocio y traducirlas en requisitos técnicos. Diseñar modelos de datos eficientes y escalables utilizando Databricks, optimizando para el procesamiento de grandes volúmenes de datos. Integrar Databricks con otros servicios de la nube (como AWS, Azure, Google Cloud) y seleccionar las tecnologías adecuadas para cumplir con los objetivos del proyecto. Crear y gestionar pipelines de datos utilizando Databricks para procesos ETL (Extract, Transform, Load) y ELT (Extract, Load, Transform). Monitorizar y ajustar el rendimiento de las soluciones implementadas en Databricks para garantizar la eficiencia y escalabilidad. Implementar automatizaciones para la ingesta, procesamiento y análisis de datos utilizando herramientas y scripts en Databricks. Integrar Databricks con otras herramientas de análisis de datos, almacenamiento y visualización. Crear y mantener notebooks en Databricks para el análisis de datos, desarrollo de modelos de machine learning y otros usos analíticos. Aplicar las mejores prácticas de seguridad en Databricks, incluyendo el control de acceso a datos y la protección de datos sensibles. Asegurar que las soluciones de datos en Databricks cumplan con las normativas y estándares de la industria. Colaborar con científicos de datos, ingenieros de datos y otros equipos técnicos para asegurar que las soluciones cumplen con los requisitos de todos los usuarios. Buscar oportunidades para mejorar continuamente la arquitectura y los procesos de datos para aumentar la eficiencia y reducir costos. ¿Qué te hará triunfar en la posición? Profundo conocimiento y experiencia en el uso de la plataforma Databricks. Habilidad en lenguajes como Python, Scala y SQL. Conocimientos en plataformas de nube como AWS, Azure y Google Cloud, y su integración con Databricks. Capacidad para diseñar modelos de datos y realizar análisis complejos. Conocimiento de las mejores prácticas en seguridad de datos y cumplimiento normativo. ¿Qué ofrecemos? Modalidad de trabajo 100% REMOTO. Jornada intensiva los viernes y de lunes a jueves horario partido. Posición estable, indefinida y de larga duración. Salario competitivo según la experiencia y lo que puedas aportar al proyecto. Oportunidades de formación en tecnologías punteras (Open Webinars). Clases de inglés con diferentes niveles, adaptadas a ti. Certificaciones pagadas en las últimas tendencias. Amplio abanico de retos y proyectos. Acceso a beneficios fiscales gracias a nuestro plan de Retribución Flexible (ticket restaurante, transporte, guardería y formación). Finalizar el contrato siempre es la última opción, buscamos entre la multitud de proyectos que tenemos otro que pueda interesarte. Seguimiento personalizado gracias al acompañamiento de nuestra figura de People Partner y un Business Manager. Trato cercano y seguimiento: vas a estar en constante comunicación con nosotros para saber cómo avanza el proyecto. ¡DA EL PASO PARA COMENZAR TU NUEVA ETAPA PROFESIONAL!

Cerca avançada