La oferta de trabajo Ingeniero de datos - Cloudera ya no está disponible. Aquí tienes algunas ofertas similares:
  • 23/05/2022

    Cataluña, Madrid

    ¿Quiénes somos? La misión de PUE es ayudar a las empresas a obtener valor de sus datos a través de la transformación digital. Desde nuestra área de Servicios y Formación aportamos soluciones y certificaciones en Big Data, Cloud y DevOps. Llevamos a cabo servicios integrales de consultoría que abarcan desde el Soporte hasta el desarrollo e integración, además de líneas de desarrollo propio. Para nuestra oficina de Madrid o Barcelona, buscamos incorporar Administradores de Big Data con al menos 2 años de experiencia en el sector. Valoraremos positivamente que te hayas reconvertido de Sistemas a Big Data y seguirás ampliando tu formación con nosotros. ¿Qué buscamos? 2 años de experiencia en Administración de Sistemas UNIX El aprendizaje continuo y las ganas de superarse son dos valores fundamentales nuestros, es un MUST que tengas ganas de aprender y que seas proactivo. Imprescindible nivel medio de inglés, deseable nivel alto. Instalación y configuración de entornos Conocimiento de lenguajes de scripting para automatización de tareas: Bash imprescindible, Python deseable. Sería fantástico si conoces alguna de las tecnologías de esta lista, pero NO es fundamental: Google Cloud, AWS y/o Azure Kafka Ansible y/o Terraform Docker y Kubernetes Big Data Y además si tienes alguna de estas certificaciones: LPI LPIC 1 Red Hat RHCSA ¿Cuáles serán tus funciones? Como parte del equipo de administración de sistemas en plataformas Big Data, tus funciones principales serán: Creación de instancias. Instalación de clusters. Administración y mantenimiento de cientos de nodos. Monitorización proactiva y Tuning. Automatización de tareas mediante lenguajes de script tipo Bash / Ansible. ¿Qué podemos ofrecerte? Plan de carrera y desarrollo en el mejor equipo de Big Data Administrators a nivel nacional. Formación y Certificaciones oficiales gratuitas (Cloudera, Confluent, Google Cloud, Scrum, etc.) Participar e innovar en proyectos punteros en el área de Big Data. Horario de trabajo intensivo todos los viernes y durante todo julio y agosto ¿Te animas a sumarte al Equipo? Challenge yourself e inscríbete hoy mismo!

  • 18/05/2022

    Madrid

    Desde beonit trabajamos con una importante compañía líder en banca donde las personas, el talento y el hacer son lo más valorado. Buscamos a una persona con al menos 3 años de experiencia como Administrador/a de Sistemas Linux que venga del mundo técnico. Una persona apasionada de su trabajo y la tecnología; con vocación al servicio y autónoma traspasando sus conocimientos al equipo. ¿Cuál será tu misión? Reforzar el equipo del dato con la firme misión de gestionar y administrar los sistemas del grupo. Integrar las herramientas y frameworks de Big Data necesarios, buscar herramientas y frameworks adecuados para las futuras necesidades, implementar de procesos ETL, supervisar el rendimiento y asesorar los cambios de infraestructura necesarios. Qué necesitamos de ti Experiencia administrando sistemas (principalmente SO Linux). Destreza en entornos de Producción. Más de 4 años en herramientas de sistemas Linux. Experiencia en Big Data, Hive, Hbase, Spark. Mente abierta, que quiera aprender y hacer el camino a Cloud. Valorable conocimientos en Python. Valorable conocimientos en Machine Learning, Marcos ETL y experiencia en banca. Valorable experiencia con Docker o kubernetes. Valorable experiencia con bases de datos NoSQL, como HBase, mongoDb, Elastic. Qué podemos ofrecerte Tendrás la posibilidad de dar el paso y evolucionar de un perfil SysAdmin a un perfil Devops y lograrás un crecimiento horizontal aprendiendo nuevas tecnologías formando parte de un grupo de personas que apuestan por la innovación y con libertad de acción. Si crees que eres la persona adecuada, no dejes pasar esta oportunidad. ¡Queremos conocerte!

  • 23/05/2022

    Madrid

    Description: Desde Grupo Digital, seleccionamos perfiles junior de Data Governance para proyecto en Madrid. Horario: jornada completa de L a V. Duración del proyecto: estable. Ubicación: Alcobendas. Modalidad mixta de trabajo presencial - remoto. Minimum requirements: Data Governance Data Quality Conocimiento de herramientas: Hadoop Herramientas de gobierno del dato Inglés medio

  • 20/04/2022

    Madrid

    En Rawson España buscamos ARQUITECTO BIG DATA CON INGLÉS para una importante oferta laboral en Madrid. Ofrecemos la oportunidad de formar parte de un gran proyecto empresarial en constante crecimiento y evolución. Descripción de la oferta Rol: Arquitecto Requisitos: Data Architect / Data EngineerPerfil: Debe tener una Licenciatura en Ciencias de la Computación, Ingeniería o un campo relacionado. Al menos 5 años de experiencia laboral en una o varias áreas de TI. Event-sourcing y arquitecturas asíncronas con Apache Kafka. Arquitectura de software diseño y orientación. Experiencia en desarrollo de software. Arquitectura empresarial y patrones de integración. Análisis de negocios y conocimiento funcional bancario. Infraestructura de TI y desarrollo de la nube. Patrones de nubes. Conocimientos de AWS- DevOps. CI/CD. Mentalidad Lean Seguridad de aplicaciones e infraestructura en la nube. Otras competencias: Inglés y español fluidos, tanto escritos como orales. Capacidad para operar por iniciativa propia con una actitud proactiva, dentro de las direcciones y los límites de la gerencia y la política del Banco. Excelente relación interpersonal. habilidades de construcción de relaciones. Experiencia trabajando en un entorno ágil. Experiencia de haber trabajado con las siguientes tecnologías: Spark, Hive, Java y Hortonworks. Condiciones Laborales: Lugar de Trabajo: Madrid Tipo de Contrato: indefinido Salario: A convenir de acuerdo a la experiencia, máximo 50.000 euros bruto año Jornada Estandar Desarrollo profesional trabajando en grandes proyectos para los clientes más importantes a nivel nacional e internacional. Salarios competitivos y objetivo de permanencia a largo plazo. Trato personalizado y cercano basado en la confianza. ¡Únete al equipo Rawson España! / ¡Apúntate en nuestra oferta! / ¡Inscríbete, te estamos esperando!

  • 18/05/2022

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    ¿Te apetece formar parte de una compañía en pleno crecimiento? ¿Y trabajar rodeado del mejor TALENTO en proyectos realmente innovadores? En SOLUTIO es posible y nos gustaría conocerte. Nos encontramos seleccionando a varias personas, para incorporarse, como Data Engineer, de forma estable y 100% en remoto en nuestro equipo en cliente en el sector deportivo. Valoramos contar, en mayor medida, con experiencia profesional en las siguientes skills: Programación con Python y Spark. Conocimiento avanzado con SQL. Experiencia en entornos 100% cloud, preferiblemente con Microsoft Azure (Databricks, Azure Datafactory, Storage Accounts, Azure Datalake Store...) Construcción de modelos de datos Big Data. Experiencia en CI/CD con Gitlab, Jenkins, Azure DevOps. Capacidad de análisis de datos, facilidad para identificación de incidencias o datos anómalos. Deseable, experiencia con Docker, Kubernetes y Power BI (Power Query, DAX). ¿Qué ofrecemos? Contrato indefinido con nosotros. 100% de teletrabajo. Salario negociable según experiencia y expectativas. Jornada completa flexible, incluyendo jornada intensiva los viernes y en verano. Mediante paquete retributivo flexible y de elección voluntaria: tarjeta restaurante, seguro médico, dental, cheque guardería. Disfrute de 22 días laborales de vacaciones por año trabajado. Seguimiento de tu bienestar, desarrollo y formación de forma personalizada desde nuestro equipo de Culture & People Experience. Si estás buscando un cambio profesional y quieres participar en proyectos innovadores con tecnologías punteras, ¡¡anímate y envíanos tu CV!!

  • 19/05/2022

    Madrid

    Description: Buscamos para importante compañia a nivel internacional ubicada en España DATA ENGINEER - DATA INTEGRATION Funciones Servicio de migración de datos Requisitos 2-3 años de experiencia manejando: Shell script UNIX/LINUX - avanzado Conocimientos en bases de datos DB2, Udb, Oracle Herramientas de backup, carga-descarga. Soft Skills: Capacidad de gestión Capacidad de soportar presión Capacidad de reportng a alta dirección INGLES Metodologia AGILE Horario L-V 09:00 A 18.00 Horario en verano: L-V 08:00 a 15:00 Ubicacion: ESPAÑA - Madrid ****** Remoto *** imprescindible residir en territorio español Disponibilidad inmediata -- Mayo 2022 GRUPO DIGITAL Somos una compañia Tecnologica , formado actualmente por profesionales, en distintas áreas del mundo IT: desarrollo, sistemas, , consultoría..formacion, gestion de proyectos, ingenieria de datos .... Si quieres impulsar tu carrera con un proyecto único de la mano de una compañia de primerísimo nivel, no dudes en presentar tu candidatura. ¡Te esperamos! Puedes ampliar informacion de la compañia en nuestra web www.grupodigital.eu Minimum requirements: DATA ENGINEER - DATA INTEGRATION Requisitos 2-3 años de experiencia en migracion de datos manejando: Shell script unix/linux - avanzado Conocimientos en bases de datos DB2, Udb, Oracle Herramientas de backup, carga-descarga. Soft Skills: Capacidad de gestión Capacidad de soportar presión Capacidad de reportng a alta dirección INGLES Metodologia AGILE

  • 18/05/2022

    Comunidad Valenciana

    We seek new teammates with can-do attitude, creative mindset, curiosity, problem solving and thirst for knowledge. We'd welcome you with open arms! Reporting to Head of Data Engineering, your main objectives are: MAJOR AREAS OF ACCOUNTABILITY: Design and implement data pipelines to ingest heterogeneous data into the datalake / datawarehouse in different scenarios (batch, streaming, ...), managing large and complex data sets. Ensure data accuracy and correctness on the implemented pipelines. Create custom software components and analytics applications. In coordination and collaboration with the data insights team, in charge of the front-end and delivering data products, develop data preparation in order to be used for different purposes and use cases: reporting, machine learning, data sharing, ... and identify opportunities for data acquisition. In coordination and collaboration with the data governance team, explore ways to enhance data quality and reliability. Integrate up-and-coming data management and software engineering technologies into existing data structures. Use agile software development processes to iteratively make improvements to our back end systems. Ensure that all systems meet the business/company requirements as well as industry practices. INTERNAL AND EXTERNAL RELATIONSHIPS: Internal : All Business Services, Product Lines, Architecture, Security, Data Insights & Governance, IT Ops, QA External : IT Partners, External consultants PROFILE: PREVIOUS EXPERIENCE: Proven experience in data engineering or software engineering around data solutions in modern data architectures. EDUCATION LEVEL / CERTIFICATES: Bachelor or Engineering's degree level or higher. LANGUAGES: Written and verbal proficiency in English (mandatory). Other languages practice is appreciated (French, Spanish etc.). TECHNICAL SKILLS: Strong Python and SQL knowledge. Strong knowledge in data integration / ETLs and orchestration tools. Experience with relational SQL and NoSQL databases. Experience in cloud data platforms (GCP, AWS, Snowflake). Experience in continuous integration development techniques. WISHED: Good knowledge in other programming languages, like Java / Kotlin. Knowledge in frameworks to develop streaming pipelines: Kafka, Apache Beam, Spark, ... Knowledge in Terraform/Helm/K8s/Docker. Knowledge on BI and visualization tools. PERSONAL CHARACTERISTICS: Team player with a positive attitude and ability to collaborate effectively. Strong willed and self-motivated. Analytical mindset, process focused and structured. Proactive and self starting.

  • 09/05/2022

    Madrid

    Cadena multinacional de distribución de origen francés, considerado el primer grupo europeo y con 11960 tiendas en más de 30 países selecciona un RESPONSABLE DE OPERACIONES BIG DATA FUNCIONES Definir la arquitectura técnica de los nuevos proyectos. Establecimiento de la arquitectura tecnológica de la plataforma BigData. Gestión global de la plataforma BigData (gestión de la disponibilidad, gestión de la capacidad, actualizaciones y parcheos, rendimiento, ....) Gestión del servicio y evolución del mismo Identificar oportunidades de optimización tecnológica y de costes, y proponer mejoras en los sistemas y aplicaciones. Diseño, optimización y solución tecnológica. En el ámbito de proyectos participará desde las fases iniciales aportando soluciones de arquitectura, configuración y procedimiento. Apoyar y colaborar en la definición de la arquitectura funcional de los nuevos proyectos. OFRECEN Contrato indefinido Bonus por objetivos. 8% en compras de la marca Seguro médico y de accidentes Retribución flexible Plan de carrera vertical o trasversal según inquietudes del trabajador Programas formativos Modelo híbrido de trabajo: 4 días teletrabajo + 1 día oficina. Horario: L a J entrada de 8.30 a 9.30, salida en función. V de 8 a 15.00. Vacaciones: 31 días naturales (21 en verano y 10 en invierno) Convenio grandes almacenes REQUISITOS Estudios superiores: ingeniero informático. Experiencia acreditable de al menos 3 años como arquitecto tecnológico en Big Data en las tecnologías referenciadas. Cloudera (Yarn, Impala, Kudu, Solr...) Arquitecto con fuerte conocimiento de plataformas de alto rendimiento e integración. Se valorará positivamente la experiencia: Desarrollo de procesos sobre las plataformas y tecnologías referenciadas. Experiencia Devops. Certificación itil. Perfil experto en tecnologías Big Data, con experiencia en herramientas del ecosistema Cloudera (Yarn, Impala, Kudu, etc), servicios de google cloud para BigData (BigQuery, Dataproc, Dataflow, etc) y bases de datos NoSQL (MongoDB, Cassandra,...) para el desarrollo de nuevos proyectos en el ámbito de la distribución. Inglés B2 Competencias: iniciativa, pasión por la tecnologías, ganas de afrontar un nuevo reto profesional, capacidad de trabajo (se trabaja de forma trasversal con otros departamentos IT), buenas habilidades comunicativas, orientación a negocio.

  • 18/05/2022

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    En EDNON buscamos un perfil de Ingeniero/a de Datos para un importante proyecto ubicado en Sevilla. Funciones principales: Manejo de herramientas de ingesta, productos de ETL y las técnicas de manipulación y consulta de datos que proporcionan soluciones Big Data. La parte más importante es la visualización de datos. Requisitos: Estudios mínimos: Grado superior. Valorable titulación universitaria grado/ ingeniería técnica. Experiencia mínima: Al menos 3 años. Experiencia y conocimientos en: Experiencia en proyectos de desarrollo de BI o analítica avanzada tomando parte en la labores de ingesta y preparación de datos. La parte más importante es la visualización de datos. Certificaciones requeridas: Valorable al menos una de las tres. Oracle Database SQL Certified Associate. Oracle Database Administratir Certified Associate. Certificación Oficial del producto software de inteligencia de negocio (BI) LUMADA ( Pentaho). Ofrecemos: Desarrollo profesional. Contatro indefinido. Seguro médico. Formación especializada para el correcto desempeño de la actividad. Buen ambiente de trabajo que permitirá aprender de un equipo de profesionales con amplia experiencia en el sector. Flexibilidad horaria y jornada de verano (intensiva de mañana). Posibilidad de teletrabajo 100%.

  • 23/05/2022

    Comunidad Valenciana

    Funciones Sopra Steria works to enable our clients' digital transformation and to do so we need to keep growing and contributing thanks to people like you. Our employees agree on the work environment and the great one team that we are at Sopra Steria. With more than 46.000 people working in 25 countries, our mission is to connect talent and technology, trying to help you to find a place where you can grow and develop all your potential. We require a Data Engineer highly skilled in database and ETL data pipelines development. The incumbent will be responsible for the re-design and implementation of the set of automated ETL pipelines, implementation of the analytics of the platform operations and importing new data sources: Work with the team (technical Lead/Architect/other team members) and customer focal point to understand the business need and design/implement the technical data management solution. Assist and work with the Solution Architect and Senior Data Warehouse Specialist to develop, test and deliver the various Work - Packages as further detailed below under "deliverables". Troubleshoot and remediate data problems affecting availability and functionality. Generate and retain relevant technical documentation related to the technical services provided during the project period. Efficiently collaborate with other team members and stakeholders. Ensure alignment with WIPO's technical standards and procedures. Deliver complete technical and user documentation. Refactor existing web analytics ETL pipeline to minimize inter-dependencies and remove hardcoded filters. Migrate metadata storage from S3 to Aurora and implement analytics on this data. Add additional data sources to the Data Platform, estimated time 1 month. Perform other related duties as required. Requisitos Skills: Hands-on experience writing code for Apache Spark with PySpark and Spark SQL (AWS Glue, Databricks, other Spark implementations) Extensive proven experience in data warehouse/ETL development: SQL, CTE, window functions, facts/dimensions High attention to detail Excellent communication skills; spoken and written English Good Understanding of Data engineering pipelines Knowledge of Data pipeline orchestrators and tools such as Azure Data Factory, Azure logic apps, and AWS Glue Knowledge of python Data pipeline development with Pyspark using Apache spark and Databricks Customer-centric approach to delivery and problem solving Se ofrece Because we know what you need... Taking part in innovative and demanding projects. Would you venture to learn something new? Amenities for you and your time. Work won't be everything! Enjoy our benefits and access our Flexible remuneration plan Freekys + Smart Sessions So that you feel as a part of the team: andjoy, padel, running and even a physio just in case Dare yourself to work in a different way and get to know us!