La oferta de trabajo Data Engineer ya no está disponible. Aquí tienes algunas ofertas similares:
  • 11/07/2022

    Madrid

    What you will do Decompose complex data problems and conduct rigorous analysis and evaluations Undertake preprocessing of structured and unstructured data Mine and analyze data from company databases to drive optimization and improvement of product development, marketing techniques and business strategies. Develop custom data models and algorithms to apply to data sets Present information using data visualization techniques What we are looking for Scientific background with computational and analytical skills Strong problem-solving skills Programming skills with Python and SQL Understanding and experience with big data systems, especially with Spark (PySpark) Knowledge of a variety of machine learning techniques (clustering, regression, decision trees, neural networks, etc.) Experience with data visualization tools and packages A drive to learn and master new technologies and techniques Excellent written and verbal communication skills 1 year of industry experience Extra qualifications Experience working with huge amounts of data Experience with cloud based web services (e.g., AWS) Knowledge and experience with a version control system (e.g. Git). Why Tendam One of the largest customer data repositories in industry: more than 20M Club members Working with multiple different data sources: purchases, marketing campaigns, products, web navigation, apps, etc. Working with cutting edge technologies and building machine learning models to solve real world problems: have a real impact in the business! Ability to immediately test the model results in real pilots: quick time to market! Exposure to agile methodologies Working with senior Data Scientists to accelerate your professional development Working in a challenging and dynamic industry Ubicación: Madrid zona norte (accesible en metro, cercanías y autobuses urbanos) Horario: jornada flexible de lunes a jueves de 7:30-9:30h y salida de 17-19h y viernes jornada intensiva que se mantiene todo el año de 7:30-9:30h y salida de 13-15h. Contrato indefinido. Incorporación mes de Septiembre.

  • 18/07/2022

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    ¿Te apetece formar parte de una compañía en pleno crecimiento? ¿Y trabajar rodeado del mejor TALENTO en proyectos realmente innovadores? En SOLUTIO es posible y nos gustaría conocerte. Seleccionamos, para incorporación estable y 100% en remoto en nuestro equipo en cliente, a un/a HADOOP DATA ENGINEER ¿Qué conocimientos valoramos cumplir en mayor medida? Hadoop Spark (y/o Flink) Kafka Solace SQL DB NoSQL DB in-memory Cloud computing Python Airflow Blob Storages Object Storages NIFI Lenguajes de programación OO/Scripting/funcional (ejemplo: SQL, Bash, Python, Java / J2EE, Scala...) ¿Cuáles serán algunas de tus funciones? Construir sistemas data-oriented (batch/ streaming) Construir pipelines de datos Preparación, organización y optimización de datos Conocimientos de data analyst & reporting Construcción de prototipos para desarrollos de herramientas data-oriented Punto de unión entre arquitectura y AI ¿Qué ofrecemos? Contrato indefinido. 100% teletrabajo. 32 días laborables de vacaciones. Horario flexible de 7:30-9:30 a 17:00-20:30 de lunes a jueves y viernes de 7:30-9:30 a 14:30-16:30 Jornada completa. Formación. Si estás buscando un cambio profesional y quieres participar en proyectos innovadores con tecnologías punteras, ¡¡anímate y envíanos tu CV!!

  • 02/07/2022

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular, Portugal

    As DevOps Engineer, you work on a talented, cross-functional team turning customer requirements into complex and reliable deployments operating at high availability. Using Linux, AWS or Azure, and Cloudera Data Platform, you deliver our services directly to clients. Your missions: Implement client requirements via the deployment and optimization of large-scale clustered systems and via applications based on Linux, cloud environments, or big data projects Support clients and development teams in the transition from development and testing to operations and production, automating as much as possible along the way You organize your workflow independently in an agile setting and contribute to your team with high-quality code in alignment with the project vision You communicate primarily in English with your team members. What you need: 2+ years of experience as DevOps, SysAdmin, LinuxAdmin, or in a similar role Experience in Docker and Kubernetes, in infrastructure automation tools such as Ansible or Terraform, and scripting skills in Bash, Python, or Java Solid computer science fundamentals (algorithms, data structures, and programming skills in distributed systems) and work experience in agile environments Professional communications skills in English (other languages such as German, Russian, or Spanish also good. What you will find at Ultra Tendency: An English-speaking, international company with a great working environment. We emphasize work-life balance.  A boost to your career and the chance to work with some of the best minds in our industry. You'll find award-winning committers and PMC members at UT.    Cutting edge technologies Unique projects and challenges Paid overtime, flexible working hours Professional development opportunities and an unrivalled lifelong learning philosophy that will max out your potential Unlimited access to the Udemy Business account Well-structured personal development plan and paid trainings and certifications. We evaluate your application based on your skills and corresponding business requirements. Ultra Tendency welcomes applications from qualified candidates regardless of race, ethnicity, national or social origin, disability, sex, sexual orientation, or age. Our mission: pioneer the future. Join us by applying now!

  • 05/08/2022

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    ¿Te apetece formar parte de una compañía en pleno crecimiento? ¿Y trabajar rodeado del mejor TALENTO en proyectos realmente innovadores? En SOLUTIO es posible y nos gustaría conocerte. Te proponemos un nuevo reto profesional para formar parte de nuestro equipo, como Data Architect, en uno de nuestros cliente en el sector asegurador, donde estarás implicad@ en la definición, implementación, cómo establecer las políticas y reglas de arquitectura de soluciones y datos (Almacenamiento, Flujo, Seguridad, Acceso, Monitorización, Integración, Calidad, Modelado, Explotación....), conocer los diferentes componentes Cloud y como se integran entre ellos aplicando best practices, etc. ¿Qué requisitos mínimos estamos valorando para el puesto? Experiencia mínima de 3 años en Arquitectura de datos: BI, Big Data (Spark, Hive, Impala, HDFS, HBase...) y Microsoft Azure (ADLS, Blob storage, HDInsight, Databricks, Data Factory, Synapse...), BBDD tradicionales & No-SQL, eventos, etc. Experiencia mínima de 3 años en gestión de proyectos, trabajando en entornos agile. Capacidad para liderar y exponer diferentes iniciativas en reuniones técnicas, tanto en español como en inglés. ¿Qué te podemos aportar con esta oportunidad laboral? Contrato indefinido con nosotros, para formar parte de nuestro equipo. 100% Teletrabajo, con alguna visita muy puntual a la oficina del cliente en Madrid. Jornada completa flexible, incluyendo jornada intensiva, los viernes, julio y agosto, de 8 a 15h. Salario competitivo, negociable en función de la experiencia profesional aportada. Disfrute de 22 días laborales por año trabajado. Mediante paquete retributivo flexible y de elección voluntaria: tarjeta restaurante, seguro médico y dental, cheque guardería. Seguimiento de tu bienestar, desarrollo y formación de forma personalizada desde nuestro equipo de Culture & People Experience. Si estás buscando un cambio profesional y quieres participar en proyectos innovadores con tecnologías punteras, ¡¡anímate y envíanos tu CV!!

  • 12/07/2022

    Madrid

    Estamos buscando un Data Engineer que forme parte del departamento de Data Analytics, trabajando de la mano de Big Data con uno de nuestros principales clientes del sector bancario ubicado en Tres Cantos, Madrid (Modalidad Híbrida de Teletrabajo). ¿Cuál será tu misión? Integrar las herramientas y framework de Big Data necesarios. Supervisar el rendimiento y asesorar sobre los cambios de infraestructura necesarios. Interlocución fluída con los diferentes departamentos (Big Data, Data Analytics, CRM y Marketing Digital). ¿Qué necesitamos de tí? 5 años de experiencia como Data Engineer Conocimiento en Python y Pyspark Experiencia con bases de datos NoSQL, como HBase, MongoDb, Elastic. Experiencia con la integración de datos de múltiples fuentes de datos. Oracle, MySQL Experiencia con Spark, Dask en cluster. ¿Qué podemos ofrecerte? Contrato indefinido Seguro médico sin copago Posibilidad de teletrabajo Formación para mejora de soft skills Si crees que eres la persona adecuada, no dejes pasar esta oportunidad. ¡Queremos conocerte!

  • 02/08/2022

    Madrid

    Quental sigue creciendo ¿Te apuntas a crecer con nosotros? En Quental somos conscientes de que el éxito reside en nuestro equipo humano y es por ello que siempre nos encontramos buscando del mejor talento para incorporar a esta gran familia que formamos. Entre nuestras premisas se encuentran valores como el talento, la flexibilidad, la innovación, la calidad y la utilización de metodologías agiles aplicadas tanto a proyectos como a nuestros procesos de selección. Estamos seleccionando para nuestro departamento nuevos Ingenieros del Dato con titulaciones afines a Grado en Informática, Matemáticas, Física o similar y experiencia en la codificación de programas para la explotación de diferentes fuentes de datos con desarrollo Python y SQL, trabajando sobre grandes volúmenes de Datos. Funciones de colaborador técnico como Ingeniero de datos para llevar a cabo las tareas de: Diseño y desarrollo de procesos de extracción y transformación desde diferentes fuentes de datos con SQL y Python. Diseño y desarrollo de informes y cuadros de mando para el análisis de indicadores ¿Qué puedes aportarnos? Experiencia de al menos 1-2 años en colaboraciones de consulta o extracción de grandes volúmenes de datos: Experiencia en Procesos de análisis, diseño, gestión, extracción del dato. Uso de frameworks ETL - SQL Obligatorio. Valorable: Python y PySpark ¿Qué podemos ofrecerte? Contrato indefinido y plan de retribución flexible con interesantes beneficios sociales Conciliación entre la vida personal y profesional, apoyado en un modelo de teletrabajo total. Desarrollo de carrera en un ambiente colaborativo y con bonificaciones a tu formación, para que siempre estés actualizado y a la última en cuanto a tecnología y tendencias en transformación digital. Entorno salarial negociable en función de la experiencia aportada. Inclusión en el programa de beneficios y descuentos, para disfrutar de tus eventos, vacaciones, compras diarias y caprichos, beneficiándote de todos los descuentos que aporta el Quental Club Benefits! ¿Cómo son nuestros procesos de selección? Es primordial para nosotros mantener la coherencia en la toma de decisiones durante las distintas etapas de esta labor llevada a cabo por nuestro equipo. Nuestros procedimientos son inclusivos, sin sesgos ni prejuicios y buscando el objetivo: colaborar con el mejor talento.

  • 12/07/2022

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    Amplia experiencia en las siguientes tecnologías y funciones: Desarrollo de procesos de extracción, transformación y carga desde diversos tipos fuentes de datos, como son bases de datos relacionales y no relacionales, servicios REST, SOAP, ficheros CSV, topics Kafka, etc. Alto dominio y conocimientos sobre los siguientes lenguajes y tecnologías: Scala, Python, Spark, Hadoop, Sqoop, Databricks. Orquestación de procesos mediante Apache Airflow. En el desarrollo de estos procesos ETL se ha de tener siempre en cuenta los conceptos de buenas prácticas y optimización de recursos. Experiencia en el modelado de bases de datos orientadas para propósitos analíticos (Data Warehouse), identificando correctamente las tablas de hechos y dimensiones, y sus relaciones. BBDD Relacionales tradicionales: PostgreSQL, SQL Server, MySQL, Oracle. BBDD NoSQL: MongoDB, ElasticSearch, Cassandra, Redis. BBDD Analíticas: Snowflake, Vertica. Sistemas de Mensajería: Kafka, ActiveMQ. Experiencia con Azure Data Lake Storage. Desarrollo de Tests Unitarios. Conocimiento de arquitecturas de contenedores: Kubernetes, Docker. Conocimientos en el desarrollo de consultas SQL avanzadas. Uso de herramientas de integración continua: Jenkins, GIT, Azure Devops. Se valorará positivamente: Experiencia en el desarrollo de procesos ETL: Pentaho PDI, Talend, Azure Datafactory, etc. Experiencia con herramientas de visualización BI, como pueden ser Qlik Sense, Power BI, Microstrategy, etc. Imprescindible en ambos perfiles: Capacidad de trabajar en equipo. Ganas de aprender y aportar. Trabajo en remoto.

  • 21/07/2022

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    Actualmente estamos en búsqueda de un Data Engineer para incorporarse a un interesante proyecto en modalidad 100% teletrabajo. Requisitos: Al menos 1 año de experiencia demostrable en entornos Big Data Conocimientos de Spark, Scala medios Conocimiento de Python básico Condiciones: Teletrabajo 100% Formar parte de una gran empresa con crecimiento profesional. Gran ambiente de trabajo. Formación continua. Contrato indefinido. Salario competitivo según la experiencia aportada. ¡Te esperamos!

  • 12/07/2022

    Madrid

    We are growing our data science team to help Tendam solve challenging problems from the retail fashion industry. We are now seeking a Data Engineer Intern for a unique opportunity of impacting the way the world experiences fashion. What will you do? 1. Creating and maintaining AWS infrastructure for building machine learning models 2. Develop, construct, test and maintain architectures 3. Data warehousing, data ingestion and integration 4. Decompose data problems and conduct analysis and evaluations What are we looking for? 1. Coding proficiency in Python and SQL 2. Expertise working with Cloud (preferably AWS) 3. Working on large scale data transformation using Spark (preferably PySpark), SQL, Hadoop or other Big Data technologies. 4. Logical thinker with a pro-active attitude, problem solving skills and demonstrable experience working with structured and unstructured datasets. Why coming to Tendam? 1. One of the largest customer data repositories in industry: more than 20M Club members 2. Working and integrating multiple different data sources: purchases, marketing campaigns, products, web navigation, apps, etc 3. Shaping the architecture direction in the Data Science team 4. Working closely with data scientists to enable the creation of big scale machine learning models 5. Working with cutting edge technologies 6. Productionazing models having a real impact in the business 7. Exposure to agile methodologies 8. Working in a challenging and dynamic industry Ubicación de la Beca: oficinas centrales de Madrid (zona norte, accesible en metro, cercanías y autobuses urbanos). Incorporación: en el mes de Septiembre. Duración: 6 + 6 meses Horario: de lunes a jueves de 9h a 17:30h y viernes de 9h a 14h. Remuneración (ayuda económica) de 600EUR brutos al mes.

  • 13/06/2022

    Madrid

    Buscamos a un analista de datos que busque progresar en su carrera en el área de tratamiento de datos, utilizando éstos para resolver problemas de negocio de los clientes. Para ello, deberá poder localizar los datos necesarios, limpiarlos, organizarlos y presentarlos de una manera comprensible al cliente final. El trabajo se realizará sobre plataformas Big Data y Cloud y, aunque no es imprescindible el conocimiento de estas últimas, sí que lo es poder realizar consultas SQL para poder trabajar con los diversos motores de datos. La persona se incorporaría a un equipo con bastante experiencia en datos, que podrá brindarle apoyo hasta poder ser autosuficiente. Requisitos: 1 año de experiencia en entornos de datos Conocimientos de SQL Conocimientos de modelado de datos Deseable: Inglés Herramientas de desarrollo de ETLs como Pentaho, Powercenter o Nifi Generación de informes y dashboards / cuadros de mando Conocimientos de BigData Beneficios: Salario 24k Horario flexible Híbrido (2 días oficina-3 teletrabajo)