The job offer Analista de Datos is not available any more

Here are some similar offers:

  • 22/08/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Rol: Analista BI (Remoto) Funciones Desarrollo de nuevos sistemas de análisis, explotación de modelos analíticos, desarrollo de nuevos indicadores, mejoras del sistema de Cuadro de Mando, diseño de la arquitectura y procedimientos de explotación del producto PowerBI, mantenimiento, creación de cubos OLAP y modelos tabulares. Requisitos Cuatro (4) años de experiencia con Microsoft SQL Server. Cuatro (4) años de experiencia con Procesos ETL. Cuatro (4) años de experiencia con Microsoft SQL Server Integration Services. Cuatro (4) años de experiencia con Microsoft SQL Server Reporting Services. Dos (2) años de experiencia con Microsoft Power BI Desktop, Services, Excel (Powerpivot, Power View, Power Query) Conocimientos técnicos deseable. Desarrollo .NET con C#. Python. Experiencia con Azure o AWS. Microsoft SQL Server Analysis Services (SSAS) enfoque tabular o multidimensionales. Experiencia con BIML. Titulación: Informática - Formación Profesional - Desarrollo de Aplicaciones Web - Matemáticas y Físicas. Condiciones Laborales: Lugar de Trabajo: España - Remoto. Tipo de Contrato: A Término Indefinido / determinada. Salario: A convenir de acuerdo a la experiencia.

  • 05/09/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Requisitos mínimos Perfil / Experiencia / Funciones: Al menos 3 o 4 años de experiencia reseñable en el ámbito de Big Data / Data Engineering / Ingeniería del Dato, ETL - Python, Grandes Ingestas, SQL etc... Experiencia y conocimiento demostrable con ecosistema Data con Google Cloud. Experiencia y conocimiento demostrable con Airflow, (En este caso, interesante por ende que sea Airflow Composer de GCP). Valorables: Experiencias en Migraciones, y ámbitos tipo Unix Preferiblemente experiencia o conocimiento de BigQuery. Descripción Buscamos Data Engineer con experiencia en Google Cloud y Airflow Composer (en GCP). + SQL, Ingestas, migraciones, valorable conocimientos de entorno Unix etc... y que provenga preferiblemente de conocimiento de BigQuery. Formato de teletrabajo total 100%, Proyectos de alto impacto trabajando para gran compañía final del entorno de las Telecomunicaciones. Condiciones Base: Formato de Teletrabajo total 100%. Contratación indefinida inicial por nosotros Sandav Consultores, prestando servicio para nuestra compañía cliente Especializada en servicios Importantes para grandes compañías en IT / TI, con la posibilidad de fondo en periodo de en torno al año acabar internalizado / contratado por empresa cliente. Horario habitual de oficina de 9 a 18H, viernes hasta las 15H, en principio así todo el año. Sin guardias, ni desplazamientos y con la posibilidad de fondo de flexibilización habitual de horarios de entrada y salida en función del proyecto a conocer con el avance del proceso. Salario en función de perfil / experiencia: Abierto entre ámbitos de los 45.000 hasta salarios por entornos de los 55-58.000 EUR/B Anuales aproximadamente como estimación. ¿Quieres trabajar en una empresa en la que sabemos cómo te llamas, nos preocupamos por tu bienestar y cuando necesitas algo te atendemos al momento? SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, que en resumen quiere decir que CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com

  • 22/08/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Funciones a realizar en el puesto: Obtención y revisión de las analíticas obtenidas a partir de los registros de clics de usuarios de distintas plataformas y fuentes, pudiendo enriquecerse con datos de información demográfica que permitan adaptar los contenidos a la audiencia objetiva. Estos datos se buscarían y extraerían de herramientas como las siguientes: Adobe heartbeat Streaming Tag de comScore Kantar UserTracker Conviva o MUX Para ofrecer el dato cuantitativo y cualitativo. Validación de casos de uso de negocio. Definición y validación de payloads para tracking de usuarios. Requisitos Conocimientos de las siguientes herramientas: Adobe heartbeat Streaming Tag de comScore Kantar UserTracker Conviva o MUX Experiencia con: Uso de APIS de consulta Elastic Search Kibana. Google Tag Manager. AWS o Google Cloud. // Años de experiencia en el puesto: 2-4 años Titulación: Informática - Formación Profesional - Desarrollo de Aplicaciones Web - Matemáticas y Físicas Beneficios como trabajador/a Paquete retributivo en Beneficios. Tú eliges si destinarlo a: Seguro Médico, Cheque Guardería, Tarjeta Transporte, Tarjeta Restaurante y/o Formación. Jornada flexible. En Ineco disponemos de 18 medidas de conciliación, entre las que destacan, la flexibilidad horaria, teletrabajo, las políticas de reuniones y de luces apagadas, asistencia médica o educativa con familiares de primer grado. Encargos estables. Proyectos de larga duracción. En Ineco apostamos por el talento que tiene como base entornos de trabajo retadores y estimulantes que promuevan el desarrollo personal y profesional de nuestros empleados, garantizando el cumplimiento de los principios de igualdad, mérito y capacidad, así como la trasparencia, objetividad y la igualdad de oportunidades.

  • 04/08/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Modalidad: Remoto Nivel de inglés requerido: Bajo (A2) Tecnología principal: SQL Años de experiencia requeridos: Mínimo 2 años Descripción del Puesto: Se busca un/a profesional con experiencia en Power BI para unirse a un proyecto orientado al análisis y visualización de datos. La posición requiere una sólida base en modelado de datos y habilidades técnicas para el desarrollo de dashboards interactivos y soluciones efectivas para distintos equipos de negocio. Responsabilidades: Diseñar, desarrollar y mantener dashboards y reportes interactivos en Power BI. Realizar procesos ETL: extracción, transformación y carga de datos desde múltiples fuentes. Colaborar con distintos equipos para identificar requerimientos de negocio y traducirlos en visualizaciones útiles. Optimizar el rendimiento de informes y garantizar la calidad e integridad de los datos. Aplicar buenas prácticas en modelado de datos y en la gestión de seguridad dentro del entorno Power BI. Contribuir a la automatización y mejora continua de procesos de reporting. Requisitos Mínimos: Experiencia comprobable de al menos 2 años trabajando con Power BI. Conocimientos sólidos en modelado de datos (DAX, Power Query, relaciones). Manejo de SQL y bases de datos relacionales. Capacidad analítica y atención al detalle. Habilidades de comunicación para presentar insights a usuarios no técnicos. Requisitos Deseables: Experiencia en entornos cloud (Azure, Power BI Service). Conocimientos en Python o R para análisis avanzados. Certificaciones oficiales en Power BI o Microsoft. ¿Qué ofrecemos? Modalidad 100% remota. Incorporación a un proyecto con enfoque en análisis de datos e inteligencia de negocio. Colaboración con equipos multidisciplinarios y entornos tecnológicos actuales. Oportunidades de crecimiento profesional y aprendizaje continuo. Buen ambiente de trabajo, dinámico y orientado a resultados.

  • 01/09/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    ¿Eres una persona a la que le gustaría afrontar nuevos retos y buscas seguir desarrollando tu carrera profesional en el mundo de la inteligencia del dato y analítica cognitiva? Estamos seleccionando para nuestro laboratorio de análisis de datos Ingenieros Informáticos o similar con experiencia en las tareas de diseño y desarrollo de los procesos de extracción de los datos de fuentes heterogéneas utilizando diversas técnicas de extracción y validación. Funciones de Ingeniero de datos PySpark, python, sql con análisis y desarrollo de proyectos dentro del ámbito Big Data para la extracción de los datos desde fuentes heterogéneas de grandes volúmenes de datos. ¿Qué puedes aportarnos? Requisitos técnicos indispensables, al menos 2 años de experiencia en: Python Dominio SQL (y en desarrollo de procedimientos con SQL embebido en el tratamiento y transformación de la información) Spark / PySpark y mejora de rendimientos ¿Qué podemos ofrecerte? Contrato indefinido y plan de retribución flexible con interesantes beneficios sociales Conciliación entre la vida personal y profesional, apoyado en un modelo de teletrabajo total. Desarrollo de carrera en un ambiente colaborativo y con bonificaciones a tu formación, para que siempre estés actualizado y a la última en cuanto a tecnología y tendencias en transformación digital. Entorno salarial negociable en función de la experiencia aportada. Inclusión en el programa de beneficios y descuentos, para disfrutar de tus eventos, vacaciones, compras diarias y caprichos, beneficiándote de todos los descuentos que aporta el Quental Club Benefits! ¿Cómo son nuestros procesos de selección? Es primordial para nosotros mantener la coherencia en la toma de decisiones durante las distintas etapas de esta labor llevada a cabo por nuestro equipo. Nuestros procedimientos son inclusivos, sin sesgos ni prejuicios y buscando el objetivo: colaborar con el mejor talento. ¡Te esperamos!

  • 25/08/2025

    Madrid

    Desde INECO estamos actualmente inmersos en la transformación digital de diferentes organismos y administraciones de la AGE e incrementando el equipo dedicado a toda la implementación de funcionalidades innovadoras dentro del área de IA y la implantación de nuevos sistemas de automatismos para mejorar el uso de datos y herramientas. Buscamos profesionales dedicados al tratamiento de datos, tanto Analistas como Ingeniero/a de Datos. Las funciones en los diferentes encargos serán desde integración de los datos en sistemas, como redefinir y automatizar la manera de tratar a los mismos, el desarrollo de nuevas IA que automaticen ciertos procesos como la reingeniería interna de datos para la implantación de nuevas herramientas de datos no relacionales. Trabajarías en el departamento encargado de la aplicación tecnológica del dato participando en algunos casos en la creación de los laboratorios de datos. Rol: Experto/a de Implementación de IA y Análisis de Datos Funciones: 1. Extracción de datos de diferentes fuentes de información. Limpieza de los dato relacionales y no relacionales Procesamiento de datos y su interpretación de la forma más adecuada a partir de relaciones estadísticas, análisis matemáticos, modelos predictivos etc. que permitan sacar conclusiones orientadas a negocio. Desarrollo y modificación de aplicaciones web mediante HTML, CSS y JavaScript. 2. Creación de Algoritmos: Creación de nuevos algortimos para aumentar la capacidad de la IA Creación de nuesvas funcionales de las IA Creación de automatismos para el tratamiento del dato. 3. Diseño y participación en nuevo modelos de tratamiento del dato así como su integración en los sistemas Experiencia en: Al menos tres (3) años de experiencia en cada una de estas tecnologías: Python. CSS. HTML. JavaScript. Diseño de páginas web. Pandas, keros o similar... Capacidad de aprendizaje. Debe ser creativo y estar preparado para establecer confianza entre los miembros de distintos departamentos. Conocimientos de: Business Intelligence (BI) con herramientas analíticas: Qlik, Power BI. Machine learning Deep learning Si estás interesado/a en incorporarte en un departamento que está en continua evolución no dudes en apuntarte a la oferta.

  • 05/09/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    En Rawson BPO buscamos un DevOps - Software Engineer con experiencia en infraestructura y automatización en AWS para dar soporte a proyectos de Generative AI (GenAI). Un Ingeniero de Software con fuerte enfoque en DevOps, Backend y Cloud (AWS), capaz de construir y desplegar infraestructura escalable y segura, automatizar pipelines, e integrar modelos GenAI en entornos productivos. Responsabilidades Implementar y mantener infraestructura AWS para cargas de trabajo GenAI en producción, utilizando servicios como Lambda, API Gateway, DynamoDB, Bedrock, S3, SageMaker e IAM. Desarrollar y mantener componentes GenAI reutilizables en Python, integrados con servicios AWS, incluyendo logging, monitoring y pruebas automatizadas. Diseñar y gestionar infraestructura como código mediante Terraform. Construir y mantener pipelines CI/CD con GitHub Actions (validación, testing, despliegue y chequeos post-deployment). Implementar políticas de seguridad e IAM robustas para la ejecución de cargas GenAI. Colaborar con equipos multidisciplinares (Data Scientists, Backend Engineers y DevOps). Requisitos Experiencia mínima de 5 años en entornos IT. Nivel de inglés C1. Conocimientos obligatorios: AWS (Lambda, API Gateway, Bedrock, S3, SageMaker, IAM). Desarrollo en Python para construcción e integración de componentes GenAI. Terraform para provisión y gestión de infraestructura AWS. CI/CD con GitHub Actions (testing, despliegue y monitorización).

  • 08/09/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Description: En Grupo Digital para importante cliente sector energía necesitamos cubrir una vacante de Arquitecto DevOps >> diseño de modelos de integración continua. Responsabilidades: Diseñar, implementar y mantener pipelines de CI/CD utilizando GitHub Actions. Escribir las reglas de negocio usando Python como lenguaje fundamental. Definición de los modelos de uso de repositorios de GitFlow, asegurando mejores prácticas de versionado y colaboración. Integrar herramientas y servicios adicionales a través de APIs. Colaborar con equipos de desarrollo y operaciones para mejorar la infraestructura y los procesos de despliegue. Diseño de soluciones fundamentadas en Kubernetes Requisitos Minimo 4 años de experiencia como ARQUITECTO DEVOPS Amplia experiencia en diseñas soluciones de CI CD Haber sido integrantes de un equipo multidisciplinar teniendo la responsabilidad de diseñas soluciones de cicd Experiencia en diseño, gestión e implementación de workflow fundamentados en GitHub Actions o equivalente como Azure Devops Experiencia demostrable con repositorios Git utilizando la línea de comando Experiencia en desarrollo en Python para automatización y desarrollo de lógica de negocio Experiencia en contenedores y orquestadores como Docker y Kubernetes, preferiblemente en un entorno cloud (EKS y/o AKS). Conocimiento de prácticas de seguridad en DevOps y DevSecOps. Excelentes habilidades de resolución de problemas y capacidad para trabajar en equipo. Gestión de repositorios de artefactos como JFrog-Artifactory. Valorable Experiencia en diseñar arquitecturas Cloud (Terraform) Liferay Client Extensions Certificaciones relevantes en GitHub, Python, o DevOps. Experiencia en metodologías ágiles y colaboración en equipos multifuncionales. Habilidad para comunicar conceptos técnicos a audiencias no técnicas. ¿Qué ofrecemos? Salario competitivo en función de la experiencia Contrato indefinido u Opción de Contrato Mercantil 22 días laborables de vacaciones Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte Formación en Tecnología y Soft Skills "Programa de referidos": BONUS por candidatos recomendados que se incorporen con nosotros. Ubicación España. Es necesario que resida en España -- puntualmente viaje a clienteModalidad Remoto. Horario de 7:30 a 15:30 horas Inicio septiembre 2025 en cuanto a nosotros .... Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de desarrollo aplicaciones, sistemas, Big Data , Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Puedes ampliar información de la compañía en nuestra web www.grupodigital.eu

  • 26/08/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    We are still looking for the very Top Talent...and we would be delighted if you were to join our team! More in details, UST is a multinational company based in North America, certified as a Top Employer and Great Place to Work company with over 35.000 employees all over the world and presence in more than 35 countries. We are leaders on digital technology services, and we provide large-scale technologic solutions to big companies. What we look for? For one of those projects, we are seeking a dynamic and experienced Data Engineer (Snowflake) with strong SQL, Testing, ETLs, etc. 100% remote position for people located in Spain. Key Responsibilities: Design and execute test plans. Data Validation for accuracy and completeness. Perform ETL process verification and ensure dependencies are functioning as expected. Collaborate with engineering and data teams to triage issues and resolve defects. Document test results, issues, and resolutions clearly and consistently. Ensure security and access controls are preserved. Test Automation into CI Pipeline. Ensure Error Handling and Logging behaving as expected. Conduct performance testing. Mandatory requirements: Proven experience testing data migrations. Strong Data warehousing / Dimensional Modelling concepts. Strong SQL expertise. Strong Azure Data Factory (ADF), Synapse and Snowflake. Experience with automated testing tools. Ability to validate data transformations and outputs. Experience with Integration Testing, Exploratory Testing and Performance Testing Excellent communication and documentation skills. Experience working with 3rd party vendors Desirable: Background in performance tuning and query optimization. Exposure to scripting languages (e.g., Python) for test automation. Visual Studio, C#, XUnit, ADO, GIT PowerBI experience to help repoint reports to Snowflake ¿What can we offer? 23 days of Annual Leave plus the 24th and 31st of December as discretionary days! Numerous benefits (Heath Care Plan, Internet Connectivity, Life and Accident Insurances). Retribución Flexible´ Program: (Meals, Kinder Garden, Transport, online English lessons, Heath Care Plan...) Free access to several training platforms Professional stability and career plans UST also, compensates referrals from which you could benefit when you refer professionals. The option to pick between 12 or 14 payments along the year. Real Work Life Balance measures (flexibility, WFH or remote work policy, compacted hours during summertime...) UST Club Platform discounts and gym Access discounts If you would like to know more, do not hesitate to apply and we'll get in touch to fill you in details. UST is waiting for you! In UST we are committed to equal opportunities in our selection processes and do not discriminate based on race, gender, disability, age, religion, sexual orientation or nationality. We have a special commitment to Disability & Inclusion, so we are interested in hiring people with disability certificate.

  • 28/07/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Desde CMV Consultores buscamos un Cloud Data Engineer con 3-4 años de experiencia para proyecto en el sector banca, en modalidad 100% remoto (residencia en España, preferiblemente Madrid). Funciones Desarrollo de APIs en AWS (API Gateway, Lambda en Python) Modelado de datos y dashboards en Amazon Quicksight Automatización con GitHub Actions Documentación de arquitecturas en AWS Propuestas técnicas para casos de uso en IA/ML Tecnologías clave Python, SQL, Shell Scripting (bloqueantes) AWS (Lambda, S3, EMR, Glue, CloudWatch, Aurora, Quicksight) GitHub, OpenAPI, API Manager Machine Learning (nivel intermedio) Condiciones: Proyecto remoto Si cumples con los requisitos y te apasiona el mundo del dato en entornos cloud, ¡te estamos esperando!