La oferta de trabajo Data Analyst SAS (Híbrido en Madrid, Barcelona o Santander) ya no está disponible
Aquí tienes ofertas de trabajo similares:
-
07/11/2024
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
Descripción del puesto Zemsania, una empresa líder en el sector tecnológico, está en búsqueda de un Data Engineer especializado en Google Cloud Platform (GCP). Requisitos Experiencia mínima de 4 años en roles de ingeniería de datos, con un enfoque en GCP y proyectos relacionados. Sólida experiencia en el desarrollo de pipelines y transformaciones de datos (ETLs) usando BigQuery. Conocimientos y experiencia en SQL Server y Talend para la ingesta de datos. Excelente dominio de SQL para consultas y manipulación de bases de datos. Buen nivel de Python para el desarrollo y automatización de procesos. Habilidades analíticas y de resolución de problemas, con una atención meticulosa a los detalles. Capacidad para trabajar de forma independiente y en equipo, gestionando múltiples tareas y prioridades. Nivel de inglés B2. Ofrecemos Oportunidad de trabajar en un entorno 100% remoto, con flexibilidad horaria. Un equipo dinámico y colaborativo con un enfoque en la innovación y el crecimiento. Formación continua y desarrollo profesional en tecnologías de vanguardia. Acceso a un entorno que fomenta la creatividad, la colaboración y el aprendizaje constante. Paquete de compensación competitivo y beneficios adicionales. Únete a nosotros y sé parte de la transformación digital en la nube. ¡Esperamos recibir tu solicitud!
-
31/10/2024
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
Desde CMV Consultores te brindamos las mejores oportunidades, en importantes clientes. Seleccionamos: 1 de Perfil Senior Data Engineer cloud GCP. Teletrabajo 100%. Requisitos: Perfil Senior Data Engineer con experiencia de más de 2 años trabajando en el cloud GCP. Best Practises · Experiencia en el desarrollo de pipelines y transformaciones de datos (ETLs) con Bigquery. Ideal experiencia con SQL Server y Talend para ingestas. Buen nivel de SQL Buen nivel de Python Idiomas: Inglés B2 mínimo.
-
31/10/2024
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
Rol: Analista BI (Remoto) Funciones Desarrollo de nuevos sistemas de análisis, explotación de modelos analíticos, desarrollo de nuevos indicadores, mejoras del sistema de Cuadro de Mando, diseño de la arquitectura y procedimientos de explotación del producto PowerBI, mantenimiento, creación de cubos OLAP y modelos tabulares. Requisitos Cuatro (4) años de experiencia con Microsoft SQL Server. Cuatro (4) años de experiencia con Procesos ETL. Cuatro (4) años de experiencia con Microsoft SQL Server Integration Services. Cuatro (4) años de experiencia con Microsoft SQL Server Reporting Services. Dos (2) años de experiencia con Microsoft Power BI Desktop, Services, Excel (Powerpivot, Power View, Power Query) Conocimientos técnicos deseable. Desarrollo .NET con C#. Python. Experiencia con Azure o AWS. Microsoft SQL Server Analysis Services (SSAS) enfoque tabular o multidimensionales. Experiencia con BIML. Titulación: Informática - Formación Profesional - Desarrollo de Aplicaciones Web - Matemáticas y Físicas. Condiciones Laborales: Lugar de Trabajo: España - Remoto. Tipo de Contrato: A Término Indefinido / determinada. Salario: A convenir de acuerdo a la experiencia.
-
25/10/2024
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
Buscamos un Arquitecto Talend API Services para unirse a nuestro equipo dinámico y en crecimiento. El candidato ideal será un profesional con una sólida trayectoria en proyectos de integración de datos, que combine habilidades técnicas avanzadas con una fuerte capacidad de liderazgo y gestión de equipos. Esta persona será responsable del diseño y desarrollo de arquitecturas efectivas usando Talend, enfocándose en la integración de datos mediante APIs y procesos por lotes (Batch). Requisitos Experiencia significativa en proyectos de integración de datos (Batch + API) con Talend. Sólida experiencia en el desarrollo y diseño de arquitecturas y proyectos con Talend. Experiencia en Integración Continua y comprensión del ciclo de vida del Software. Experiencia en diseño e implementación de arquitecturas de microservicios. Experiencia en SQL Server y manejo avanzado de bases de datos. Experiencia en ActiveMQ/Kafka para la integración de sistemas. Habilidades de liderazgo y gestión de equipos técnicos, con la capacidad de inspirar y guiar a los compañeros de equipo hacia el éxito. Habilidades Deseadas Deseables certificaciones en Talend (Developer + Administrator). Experiencia en el uso de herramientas y servicios de Azure para la implementación y gestión de soluciones en la nube. Qué ofrecemos Ubicación en Barcelona y alrededores. Proyecto híbrido: 4 días remoto + 1 día en la oficina del cliente (Hospitalet de Llobregat). Flexibilidad horaria para equilibrar tu vida laboral y personal. Oportunidades de formación continua y certificaciones oficiales para impulsar tu desarrollo profesional.
-
17/12/2024
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
Oferta de Empleo: Ingeniero/a de Datos Senior Horario: 09:00 a 18:00 Requisitos Mínimos: Experiencia avanzada en Databricks Conocimientos sólidos en Azure Perfil senior con amplia experiencia en proyectos de datos Funciones Principales: Diseño, implementación y optimización de soluciones de datos en la nube, asegurando un procesamiento eficiente y una administración efectiva de grandes volúmenes de datos. Configuración de pipelines de datos: Utilización de herramientas como Azure Data Factory o Azure Databricks para realizar procesos ETL (extracción, transformación y carga de datos). Procesamiento de datos en tiempo real: Implementación de flujos de datos mediante Apache Spark Streaming y Event Hubs. Integración de datos desde múltiples fuentes: Conexión a bases de datos SQL, NoSQL, archivos planos en Azure Data Lake Storage (ADLS), APIs y otros servicios. Automatización de tareas: Desarrollo de procesos para orquestar workflows de datos utilizando herramientas del ecosistema Azure. El rol se enfoca en la ingeniería y optimización de pipelines de datos, facilitando la transformación de grandes volúmenes de datos y asegurando su disponibilidad para análisis avanzado. Todo esto en un entorno seguro, escalable y orientado a la excelencia operativa. Detalles de la posición: Oportunidad para trabajar en una empresa de tecnología multinacional, dando servicio al sector seguros o sector multicliente. Modalidad 100% remota. Contratación indefinida, con proyección de desarrollo profesional en proyectos innovadores. ¿Te interesa ser parte de este proyecto? ¡Postúlate y únete a nuestro equipo!
-
11/12/2024
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
Desde CMV Consultores buscamos incorporar un perfil: Data Engineer ¿Qué ofrecemos? Salario en función de la experiencia aportada 100% teletrabajo ¿Qué se requiere? 2 años de experiencia en puestos similares. Experiencia con Google Cloud Platform (GCP) y herramientas BI. Experiencia trabajando con Looker Studio. Buen nivel de SQL.
-
12/12/2024
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
Resumen de la empresa/cliente: Empresa líder en el sector asegurador, comprometida con la innovación y la transformación digital, busca un Ingeniero de Datos Talend/MongoDB para un proyecto estratégico. Responsabilidades principales: Diseño, desarrollo, pruebas e implementación de procesos ETL utilizando la suite de Talend. Diseño, desarrollo, pruebas e implementación de scripts en MongoDB. Ejecución de consultas NoSQL eficientes. Documentación técnica detallada de los procesos y soluciones implementadas. Detalles del proyecto: Sector: Seguros. Formato de trabajo: Remoto 100%. Horario: Flexible. Si cumples con los requisitos y estás interesado en formar parte de un equipo innovador, envía tu CV actualizado para más detalles sobre el proceso de selección. ¡Esperamos tu postulación!
-
26/11/2024
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
Oferta de Empleo: Arquitecto/a de BI (100% Remoto) Es empresa de origen suizo con sede en Sant Cugat del Vallès ��, comprometida en impulsar el crecimiento empresarial a través de soluciones de inteligencia de datos de última generación. Actualmente, busca un Arquitecto/a de BI que se una a nuestro equipo de forma 100% remota, para liderar la arquitectura y estrategia de nuestros sistemas de Business Intelligence (BI) y asegurar la toma de decisiones informadas en toda la organización. Objetivo del Rol: Como Arquitecto/a de BI, serás responsable de diseñar e implementar la arquitectura de BI de la empresa, integrando soluciones escalables que garanticen insights de alta calidad. Te enfocarás en asegurar que nuestras herramientas de BI se alineen con los objetivos empresariales y se integren sin problemas con los sistemas actuales. Competencias y Requisitos: Experiencia en supervisión de proyectos de BI, asegurando su cumplimiento en tiempo y presupuesto. Capacidad para crear y mantener documentación técnica, mejores prácticas y estándares de datos en proyectos de BI. Habilidad en el monitoreo y optimización del rendimiento de sistemas BI, gestionando recursos para manejar eficientemente grandes volúmenes de datos. Dominio en SQL, Python y/o otros lenguajes de programación para manipulación de datos. Conocimiento de bases de datos relacionales y no relacionales y técnicas de modelado de datos. IT Knowledge Azure, específicamente herramientas relacionadas con datos. Power BI DAX Data Modeling (Modelado Dimensional - Esquema Estrella) Databases (Basados en SQL) Data Warehousing/Engineering (ETL) Programming Skills/Scripting (Python y PowerShell) Data Governance Source Control (GIT) DevOps Pipelines (CICD/Despliegues Automatizados) �� Qué Ofrecemos: Posición 100% Remota con horario flexible. Un entorno de trabajo dinámico y retador dentro de una empresa suiza. Oportunidades de desarrollo profesional y crecimiento en una organización global. Salario competitivo y atractivos beneficios Si eres un/a profesional apasionado/a por la inteligencia de datos y deseas marcar una diferencia en una empresa innovadora, ¡esperamos tu postulación!
-
18/12/2024
Madrid
Job description: We are looking for an engineer for the Data Science Platform (DSP) team within the central IT application and platform department of SIX. In this role, you will be a part of a cross-functional team and responsible for designing, implementing, and consulting on public cloud data science platform services. What You Will Do Be a part of an international team that designs and develops a mature Azure cloud based SIX data science platform. Manage lifecycle of the DSP which is offered as a service towards internal stakeholders by maintaining and developing its infrastructure and supporting features from ETL, machine learning, AI and reporting Act as a SIX internal DSP data engineer to offer consultancy to discover, onboard and deliver new use cases Closely collaborate with key stakeholders from business data science teams and other IT data engineering teams to enable them on the DSP What You Bring minimum five (5) years of practical experience with building Data Pipelines and Data Infrastructure on Public Cloud (preferably Microsoft Azure and/or Amazon Web Services, Google Cloud Platform) multiple years of experience with Spark based data processing environments (preferably Databricks) strong software development skills with proficiency in Python and SQL (Java and Bash are a plus) and familiarity with Linux systems. competence in CI/CD and automation to build system critical data platform infrastructure and applications on public Cloud hands-on experience large scale Infrastructure as Code (IaC) deployments, preferably using Terraform/ Open Tofu and basic knowledge of cloud foundation services (networking, security, storage and IAM) strong customer focus, open-minded, proactive attitude, and experience in working in highly regulated environments. Excellent written and verbal communication skills in English What We Offer Hybrid model up to 60% working from home 37,5 hours/week with flexible schedule and 29+2 holidays Daily meal allowance Additional Medical Insurance for employee and family Pension fund Access to technical and language learning platforms Free parking spots, charger spots and shuttle bus (only for Las Rozas - Madrid location)
-
03/12/2024
Madrid
Job Description: Ever wondered what kind of a systems is running when you're using your debit or credit card? Or which environment is running behind a 24x7x365 setup with no downtime even for major upgrades? Are you a database engineer with experience in Oracle? Diagnostic and Performance Tuning are your daily bread and butter? Then we're looking for you! Our international team is responsible for the engineering and operations of database technologies like Oracle, MySQL, PostgreSQL, IBM Db2, Sybase and MS SQL Server. As DevOps/EngOps engineer we're taking the end-to-end ownership for our services. From engineering and automation, operation up to the 3rd level support. As part of the team, you will have the opportunity to lead technical projects, evaluate new solutions, bringing ideas for improvement, programming self-service capabilities and much more. Our motivated and open communicated team is looking for you to build up a high sophisticated environment. Your opinion counts and the team is supporting you in every step. Flexible working times, a lot of possibilities for further trainings and much more is waiting for you. Don't hesitate and apply now with your CV in English. What You Will Do Engineering, optimization and maintenance of our Oracle DBMS environment Consulting our internal customers in solution design topics Programming and automation of maintenance jobs and self-service capabilities 3rd level support and performance tuning On call duty service (approximately 1 week every two months) What You Bring Technical studies or bachelor related with IT area A minimum of 2 years of experience in Oracle Databases with ASM, RAC and Data Guard. Any 1st experience working in critical environment will be highly valued Ideally programming skills in Ansible and Python Knowledge in PostgreSQL, MySQL or IBM DB2 LUW is an advantage Open-minded approach, keen on listening and understanding different ways of thinking, communicative and team oriented personality with a continuous learning mindset Fluent in English (both verbal and writing) to interact with your international colleagues What We Offer Hybrid model up to 60% working from home 37,5 hours/week with flexible schedule and 29+2 holidays Daily meal allowance Additional Medical Insurance for employee and family Pension fund Access to technical and language learning platforms Free parking spots, charger spots and shuttle bus (only for Las Rozas - Madrid location)