L'oferta de treball BI / Data Visualization (Remoto) ja no està disponible
Aquí hi són algunes ofertes similars:
-
10/09/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
Desarrollador/a Senior Python En Rawson BPO trabajamos para impulsar tu carrera profesional proponiéndote nuevos retos. Trabajarás con las tecnologías más vanguardistas tanto en proyectos nacionales e internacionales. ¿Qué buscamos? Un perfil senior de desarrollo en Python con experiencia específica en el sector financiero/bancario Requisitos imprescindibles: +5 años de experiencia en desarrollo con Python. Experiencia previa en el sector financiero / bancario / fintech. Dominio de frameworks como Django, Flask o FastAPI, así como APIs RESTful y arquitecturas de microservicios. Conocimiento en bases de datos SQL (PostgreSQL, MySQL) y NoSQL (MongoDB, Redis). Experiencia con Cloud (AWS, Azure o GCP), CI/CD y contenedores (Docker/Kubernetes). Inglés C1 (imprescindible para colaborar en proyecto de EEUU). ¿Qué te ofrecemos? Contrato Indefinido Salario competente y revisable Formación continua IT e Idiomas Retribución flexible Modalidad de trabajo: REMOTO ¡Si estás buscando una empresa dónde valores el trato personalizado esta es la tuya!
-
22/08/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
Rol: Analista BI (Remoto) Funciones Desarrollo de nuevos sistemas de análisis, explotación de modelos analíticos, desarrollo de nuevos indicadores, mejoras del sistema de Cuadro de Mando, diseño de la arquitectura y procedimientos de explotación del producto PowerBI, mantenimiento, creación de cubos OLAP y modelos tabulares. Requisitos Cuatro (4) años de experiencia con Microsoft SQL Server. Cuatro (4) años de experiencia con Procesos ETL. Cuatro (4) años de experiencia con Microsoft SQL Server Integration Services. Cuatro (4) años de experiencia con Microsoft SQL Server Reporting Services. Dos (2) años de experiencia con Microsoft Power BI Desktop, Services, Excel (Powerpivot, Power View, Power Query) Conocimientos técnicos deseable. Desarrollo .NET con C#. Python. Experiencia con Azure o AWS. Microsoft SQL Server Analysis Services (SSAS) enfoque tabular o multidimensionales. Experiencia con BIML. Titulación: Informática - Formación Profesional - Desarrollo de Aplicaciones Web - Matemáticas y Físicas. Condiciones Laborales: Lugar de Trabajo: España - Remoto. Tipo de Contrato: A Término Indefinido / determinada. Salario: A convenir de acuerdo a la experiencia.
-
21/07/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
Desde Sandav Consultores precisamos incorporar un profesional en un rol como Software Engineer para implementar nuevas funcionalidades dentro del importante proyecto para el sector bancario. Formato 100% teletrabajo, se precisa inglés B2 (mínimo) Te encargarás de: Implementar nuevas funcionalidades según los requisitos y escenarios capturados en las historias de usuario. Apoyar los productos del equipo durante su transición a producción (incluida la producción). Podrás tomar decisiones de arquitectura y diseño durante todo el ciclo de vida del software. Podrás brindar soporte a las diferentes partes interesadas a diar o, incluido el soporte de producción. Requisitos: Al menos 5 años trabajando con Java. Experiencia trabajando con sistemas, siguiendo prácticas de CI CD DevOps. Buen conocimiento de las mejores prácticas de pruebas, idealmente con experiencia en desarrollo de aplicaciones TDD Dominio de Java idealmente Java 11 o superior y Spring Framework. Conocimiento de arquitecturas de microservicios, diseño de API y API REST. Fundamentos de computación en la nube preferiblemente AWS Conocimiento de arquitecturas distribuidas y los desafíos que conllevan Valorables: Kafka RabbitMQ PostgreSQL Stack ELK Kubernetes Se ofrece: Contrato indefinido Modalidad teletrabajo Horario de oficina. Salario abierto entre 30-38k. (abierto a negociar) ¿Quieres trabajar en una empresa en la que sabemos cómo te llamas, nos preocupamos por tu bienestar y cuando necesitas algo te atendemos al momento? SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, que en resumen quiere decir que CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com
-
24/08/2025
Madrid
Descripción del proyecto: Responsabilidades: Desarrollar soluciones software escalables, mantenibles, seguras y eficientes. Estimar y planificar el desarrollo de módulos funcionales. Colaborar con el equipo de desarrollo para asegurar coherencia y calidad técnica. Documentar el código y generar documentación técnica de forma clara y estructurada. Requisitos: Al menos 4 años de experiencia en desarrollo Java. Formación en Ingeniería Informática o en Ciclo Formativo de Grado Superior en áreas afines Sólidos conocimientos en Spring Boot. Dominio de sentencias SQL y experiencia con SQL Server. Experiencia en la elaboración y consumo de APIs RESTful. Conocimiento y uso de control de versiones con Git. Conocimiento de herramientas de testing y experiencia en pruebas unitarias e integración. Familiaridad con mejores prácticas de seguridad y manejo de vulnerabilidades comunes. Experiencia en el uso de Sonar para análisis de código. ✨ Beneficios de ser un Happener Contrato indefinido Modalidad 100% Remoto Rango salarial hasta 25K 23 días de vacaciones hábiles por año laborado Apiux Academy: formación, entrenamientos técnicos e interacción con la comunidad tech para desarrollar tu talento al máximo Convenios con Open English Convenios con Coderhouse Certificaciones patrocinadas con Google Cloud, AWS, ISTQB Día de cumpleaños libre Bonos por nacimiento, matrimonio y referidos Happy Points: sistema de puntos canjeables por días libres Proyectos de larga duración y, en algunos casos, de alcance internacional Y-Share: posibilidad de ser dueño de una parte de la compañía 💡 En Apiux nos identificamos como una fábrica de talento con fuerte orientación al negocio Continuamente brindamos espacios a las nuevas generaciones para mostrar y desarrollar ideas, conocimientos y exponer modelos de negocios innovadores enfocados en cubrir, siempre con una propuesta de valor, las necesidades de nuestros clientes. 🔍 ¿Qué hacemos? Posicionamos el mejor talento con un enfoque estratégico, y nos esforzamos por entender a cabalidad la cultura y valores de cada uno de nuestros clientes, con el fin de hacer el match perfecto entre cliente y talento. Velamos, además, por brindar una candidate experience y employee experience ejemplar para nuestros futuros Happener. 🐝 Ser un Happener Significa pertenecer a una familia con principios integrales, donde el espíritu ágil, colaborador e innovador son el combustible que día tras día le inyectamos a nuestro corazón para hacer las cosas cada vez mejor. 🚀 Nuestros principios: We Care: Nos importa la gente, sus valores, principios, aprendizajes y creencias. We are not comfortable by being comfortable: No nos conformamos con la comodidad, queremos cambio, retos y tomar riesgos. We create and develop: Nuestro ADN está el crear oportunidades, servicios y productos para impactar al mundo. Desarrollamos talento y código. Crecimiento: Todos los happeners tenemos mentalidad de fundadores y dueños de Apiux. ¡Si Apiux crece, todos crecen! We embrace diversity: Incentivamos una cultura que hace que todos, sin importar las diferencias, sientan un ambiente de equidad, oportunidad e inclusión. ¿Quieres ser un Happener e impactar el futuro con la Tecnología y tu Talento? ¡Esperamos tu postulación! Sé parte de la colmena, sé parte del cambio. 🐝🚀
-
16/09/2025
Madrid
Description: Únete a un proyecto de Business Intelligence donde podrás trabajar con grandes volúmenes de datos en AWS y aplicar tu experiencia en Spark, ETL complejos y CI/CD en cloud. Reto técnico y proyección real de carrera. Qué Harás Diseñar e implementar pipelines de datos en AWS con Spark Desarrollar y optimizar procesos ETL complejos en entornos cloud Modelar datos y diseñar esquemas optimizados a gran escala Colaborar con stakeholders y liderar la coordinación de equipos técnicos Asegurar la calidad, seguridad y escalabilidad de los datos Integrar despliegues automatizados (CI/CD) en AWS Imprescindible +2 años de experiencia como Data Engineer en AWS Apache Spark (transformaciones y cálculos a gran escala) Modelado de datos y ETL en cloud AWS (S3, RDS, EMR) SQL avanzado Experiencia en liderazgo y mentoring Inglés medio (imprescindible) Deseable Procesamiento de datos en tiempo real Certificación AWS en datos o arquitecturas cloud Conocimiento de banca privada / modelos de inversión Buen nivel de inglés (alto) ¿Qué es lo que le Ofrecemos? Contrato indefinido Ubicación: Remoto 100%. Horario: 9h-18h (verano 8h-15h) Salario: En función de la experiencia. 30 - 38.000 EUR b/a. Salario competitivo en función de la experiencia Contrato indefinido u Opción de Contrato Mercantil 22 días laborables de vacaciones Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte Formación en Tecnología y Soft Skills Programa de referidos: 500 EUR por candidatos recomendados que se incorporen con nosotros Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Nos comprometemos estar a tu lado en todas las fases del proyecto, para asegurarnos que creces profesionalmente con nosotros, y que tu aportación cuenta. ¿Quieres estar al día con las últimas tecnologías y buscas nuevos desafíos? ¡Envíanos tu CV y nos ponemos en contacto contigo!
-
22/08/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
Funciones a realizar en el puesto: Obtención y revisión de las analíticas obtenidas a partir de los registros de clics de usuarios de distintas plataformas y fuentes, pudiendo enriquecerse con datos de información demográfica que permitan adaptar los contenidos a la audiencia objetiva. Estos datos se buscarían y extraerían de herramientas como las siguientes: Adobe heartbeat Streaming Tag de comScore Kantar UserTracker Conviva o MUX Para ofrecer el dato cuantitativo y cualitativo. Validación de casos de uso de negocio. Definición y validación de payloads para tracking de usuarios. Requisitos Conocimientos de las siguientes herramientas: Adobe heartbeat Streaming Tag de comScore Kantar UserTracker Conviva o MUX Experiencia con: Uso de APIS de consulta Elastic Search Kibana. Google Tag Manager. AWS o Google Cloud. // Años de experiencia en el puesto: 2-4 años Titulación: Informática - Formación Profesional - Desarrollo de Aplicaciones Web - Matemáticas y Físicas Beneficios como trabajador/a Paquete retributivo en Beneficios. Tú eliges si destinarlo a: Seguro Médico, Cheque Guardería, Tarjeta Transporte, Tarjeta Restaurante y/o Formación. Jornada flexible. En Ineco disponemos de 18 medidas de conciliación, entre las que destacan, la flexibilidad horaria, teletrabajo, las políticas de reuniones y de luces apagadas, asistencia médica o educativa con familiares de primer grado. Encargos estables. Proyectos de larga duracción. En Ineco apostamos por el talento que tiene como base entornos de trabajo retadores y estimulantes que promuevan el desarrollo personal y profesional de nuestros empleados, garantizando el cumplimiento de los principios de igualdad, mérito y capacidad, así como la trasparencia, objetividad y la igualdad de oportunidades.
-
08/09/2025
Madrid
Desde CMV Consultores te brindamos las mejores oportunidades, en importantes clientes. Arquitectura Cloud AWS con sólida experiencia en el diseño, desarrollo e implementación de soluciones basadas en microservicios utilizando Java. El candidato ideal tiene un profundo conocimiento de la plataforma AWS, es capaz de diseñar arquitecturas escalables y resilientes, y posee experiencia en la creación y despliegue de microservicios en entornos de producción. Este arquitecto debe tener una mentalidad orientada a soluciones, ser capaz de liderar equipos técnicos y estar alineado con las mejores prácticas de desarrollo y DevOps. Conocimientos Técnicos Requeridos: 1) AWS (Amazon Web Services): Profunda experiencia con servicios de AWS: EC2, Lambda, S3, RDS, DynamoDB, API Gateway, VPC, y EKS (Elastic Kubernetes Service). Capacidad para diseñar y desplegar arquitecturas serverless, basadas en contenedores y altamente escalables. Familiaridad con las mejores prácticas de seguridad en AWS 2)Java y Microservicios: Dominio de Java y Spring Boot para el desarrollo de aplicaciones de microservicios. Experiencia en el diseño, implementación y despliegue de arquitecturas basadas en microservicios (al menos 5 años). Conocimiento de APIs REST y colas de mensajes y eventos (SNS/SQS, Kafka, etc). Experiencia en patrones de diseño aplicables a microservicios, como Saga, CQRS, Circuit Breaker, y Event Sourcing. 3) Contenedores y Orquestación: Amplia experiencia con Docker y la orquestación de contenedores mediante Kubernetes (EKS) en entornos de producción. Familiaridad con la creación y administración de clusters de contenedores, monitoreo y escalabilidad automática (auto-scaling). 4)DevOps y CI/CD: Conocimiento avanzado de herramientas de Integración Continua/Despliegue Continuo (CI/CD), como Jenkins, GitLab CI, AWS CodePipeline, 4) Bases de Datos: Experiencia en arquitecturas de solución fundamentadas en bases de datos relacionales y NoSQL, especialmente PostgreSQL y DynamoDB. MODALIDAD DEL SERVICIO: Híbrido Madrid o al menos los 3 primeros meses debe tener disponibilidad de acudir dos días a la oficina por temas de facilitar la entrada en el servicio. ¿Qué se ofrece? Contrato indefinido y salario competitivo según valía. Proyecto a largo plazo
-
05/09/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
En Rawson BPO buscamos un DevOps - Software Engineer con experiencia en infraestructura y automatización en AWS para dar soporte a proyectos de Generative AI (GenAI). Un Ingeniero de Software con fuerte enfoque en DevOps, Backend y Cloud (AWS), capaz de construir y desplegar infraestructura escalable y segura, automatizar pipelines, e integrar modelos GenAI en entornos productivos. Responsabilidades Implementar y mantener infraestructura AWS para cargas de trabajo GenAI en producción, utilizando servicios como Lambda, API Gateway, DynamoDB, Bedrock, S3, SageMaker e IAM. Desarrollar y mantener componentes GenAI reutilizables en Python, integrados con servicios AWS, incluyendo logging, monitoring y pruebas automatizadas. Diseñar y gestionar infraestructura como código mediante Terraform. Construir y mantener pipelines CI/CD con GitHub Actions (validación, testing, despliegue y chequeos post-deployment). Implementar políticas de seguridad e IAM robustas para la ejecución de cargas GenAI. Colaborar con equipos multidisciplinares (Data Scientists, Backend Engineers y DevOps). Requisitos Experiencia mínima de 5 años en entornos IT. Nivel de inglés C1. Conocimientos obligatorios: AWS (Lambda, API Gateway, Bedrock, S3, SageMaker, IAM). Desarrollo en Python para construcción e integración de componentes GenAI. Terraform para provisión y gestión de infraestructura AWS. CI/CD con GitHub Actions (testing, despliegue y monitorización).
-
07/08/2025
Madrid
Aplican únicamente residentes de España Descripción del proyecto: Participarás en los servicios de implementación, operación y administración de la Landing Zone Cloud del Banco Central Europeo (ECB), gestionando herramientas clave de monitorización en entornos críticos. Responsabilidades: Administración diaria de herramientas de monitorización: Alta, configuración, modificación, despliegue y pruebas de reglas y monitores. Gestión de servicios: arranque, parada y configuración de servidores de eventos. Administración de usuarios. Definición y activación de situaciones de alerta. Mantenimiento correctivo y preventivo: Diagnóstico y resolución de problemas, incidencias y anomalías Escalado a proveedores y seguimiento de soluciones Documentación detallada de incidencias. Mantenimiento evolutivo: Validación y despliegue de nuevas versiones. Identificación e implementación de mejoras funcionales. Integración de nuevas extensiones y funcionalidades. Optimización de procedimientos existentes. Requisitos: Ser residente de España Mínimo 2 años de experiencia en administración, soporte y mantenimiento de Splunk o herramientas similares. Experiencia de al menos 2 años con herramientas de monitorización como ITM (Tivoli), Omnibus y/o SCOM. Al menos 1 año de experiencia con lenguajes de scripting: PowerShell, Visual Basic, Python o Perl. Conocimientos en bases de datos Oracle y/o DB2. ✨ Beneficios de ser un Happener Contrato indefinido Modalidad hibrida con disponibilidad para turnos Rango salarial 30K. 23 días de vacaciones hábiles por año laborado Apiux Academy: formación, entrenamientos técnicos e interacción con la comunidad tech para desarrollar tu talento al máximo Convenios con Open English Convenios con Coderhouse Certificaciones patrocinadas con Google Cloud, AWS, ISTQB Día de cumpleaños libre Bonos por nacimiento, matrimonio y referidos Happy Points: sistema de puntos canjeables por días libres Proyectos de larga duración y, en algunos casos, de alcance internacional Y-Share: posibilidad de ser dueño de una parte de la compañía 💡 En Apiux nos identificamos como una fábrica de talento con fuerte orientación al negocio Continuamente brindamos espacios a las nuevas generaciones para mostrar y desarrollar ideas, conocimientos y exponer modelos de negocios innovadores enfocados en cubrir, siempre con una propuesta de valor, las necesidades de nuestros clientes. 🔍 ¿Qué hacemos? Posicionamos el mejor talento con un enfoque estratégico, y nos esforzamos por entender a cabalidad la cultura y valores de cada uno de nuestros clientes, con el fin de hacer el match perfecto entre cliente y talento. Velamos, además, por brindar una candidate experience y employee experience ejemplar para nuestros futuros Happener. 🐝 Ser un Happener Significa pertenecer a una familia con principios integrales, donde el espíritu ágil, colaborador e innovador son el combustible que día tras día le inyectamos a nuestro corazón para hacer las cosas cada vez mejor. 🚀 Nuestros principios: We Care: Nos importa la gente, sus valores, principios, aprendizajes y creencias. We are not comfortable by being comfortable: No nos conformamos con la comodidad, queremos cambio, retos y tomar riesgos. We create and develop: Nuestro ADN está el crear oportunidades, servicios y productos para impactar al mundo. Desarrollamos talento y código. Crecimiento: Todos los happeners tenemos mentalidad de fundadores y dueños de Apiux. ¡Si Apiux crece, todos crecen! We embrace diversity: Incentivamos una cultura que hace que todos, sin importar las diferencias, sientan un ambiente de equidad, oportunidad e inclusión. 🌍 Compromiso con la diversidad e Inclusión En Apiux promovemos entornos de trabajo diversos, inclusivos y respetuosos 🤝. Garantizamos la igualdad de oportunidades sin distinción de género, edad, origen, orientación sexual, identidad de género, discapacidad u otra condición personal o social. En cumplimiento de la Ley Orgánica 3/2007, el Real Decreto Legislativo 1/2013 y la Ley 15/2022, animamos especialmente a postular a personas con discapacidad, en situación de pensión por incapacidad, y a colectivos históricamente subrepresentados. ¿Quieres ser un Happener e impactar el futuro con la Tecnología y tu Talento? ¡Esperamos tu postulación! Sé parte de la colmena, sé parte del cambio. 🐝🚀
-
13/08/2025
Madrid
Seleccionamos: Data cloud engineer Snowflake Ubicación: Madrid. Buscamos un/a data/cloud Engineer altamente capacitado y motivado con experiencia en el desarrollo de tablas analíticas en data warehouse (Snowflake). El candidato/a ideal será experto en trabajar en diferentes entornos (desarrollo, pruebas y producción). También se valora mucho la experiencia con soluciones en la nube, concretamente AWS. El ingeniero de BI desempeñará un papel fundamental en la transformación de datos en ideas prácticas (actionable insights), garantizando la integridad de los datos y respaldando la toma de decisiones de negocio. Indispensable: Experiencia comprobada con el almacén de datos Snowflake, incluido el diseño de esquemas, desarrollo de SQL y optimización del rendimiento. Experiencia con soluciones en la nube de AWS, incluidos S3, Redshift, Lambda y otros servicios relevantes. Conocimiento de los servicios de AWS para almacenamiento, procesamiento y análisis de datos. Implementar y gestionar procesos ETL en el entorno de la nube. Garantizar la seguridad y el cumplimiento de los datos dentro del marco de AWS. Dominio de SQL y experiencia con procesos y herramientas ETL. Gran comprensión de los conceptos y mejores prácticas de data warehousing. Habilidades avanzadas en Tableau u otras herramientas de visualización (como Power BI), no para crear dashboards, sino para gestionar las conexiones. Experiencia con Jira para gestión de proyectos y seguimiento de problemas. Competencia en el uso de GitHub para control de versiones y colaboración. Requisitos deseados: Haber trabajado con DBT. Licenciatura / maestría en informática, tecnología de la información, ciencia de datos o un campo relacionado. Las certificaciones relevantes en Snowflake, AWS, Tableau u otras herramientas de BI son una ventaja. Conocimiento de Python u otros lenguajes de scripting para manipulación y automatización de datos. Funciones: Desarrollo de data warehouse: Diseñar, desarrollar y mantener tablas analíticas en el data warehouse de Snowflake. Optimizar los procesos de almacenamiento y recuperación de datos para garantizar un rendimiento eficiente de las consultas. Implementar técnicas de modelado de datos para respaldar los requisitos comerciales y las necesidades de informes. Informes y visualización: Traducir conjuntos de datos complejos en información visual clara y procesable. Proporcionar análisis de datos ad-hoc y soporte de informes a varias unidades de negocio. Gestión de entornos: Gestionar e implementar soluciones de datos en entornos de desarrollo, pruebas y producción. Garantizar transiciones fluidas entre entornos, minimizando las interrupciones en el acceso a los datos y la generación de informes. Realizar pruebas y validaciones exhaustivas de soluciones de datos en diversos entornos para garantizar la precisión y confiabilidad. Colaboración y Gestión de Proyectos: Colaborar con equipos multifuncionales, incluidos analistas de datos, científicos de datos y partes interesadas del negocio, para comprender las necesidades de datos y ofrecer soluciones. Utilice Jira para realizar un seguimiento y gestionar las tareas, los problemas y el progreso del proyecto. Mantener el control de versiones y administrar repositorios de código usando GitHub. Documentación y Gobierno de Datos: Documentar definiciones de datos, modelos, procesos y flujos de trabajo con fines de referencia y capacitación. Implementar y hacer cumplir políticas de gobierno de datos para garantizar la precisión, coherencia y seguridad de los datos. Realizar controles periódicos de calidad de los datos y solucionar cualquier problema relacionado con los datos. Condiciones: 40h semanales Flexibilidad de horario Rango salarial deseado máximo 56k