L'oferta de treball Ingeniero/a de Datos ( Snowflake - AWS) ja no està disponible

Aquí hi són algunes ofertes similars:

  • 22/08/2025

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    Rol: Analista BI (Remoto) Funciones Desarrollo de nuevos sistemas de análisis, explotación de modelos analíticos, desarrollo de nuevos indicadores, mejoras del sistema de Cuadro de Mando, diseño de la arquitectura y procedimientos de explotación del producto PowerBI, mantenimiento, creación de cubos OLAP y modelos tabulares. Requisitos Cuatro (4) años de experiencia con Microsoft SQL Server. Cuatro (4) años de experiencia con Procesos ETL. Cuatro (4) años de experiencia con Microsoft SQL Server Integration Services. Cuatro (4) años de experiencia con Microsoft SQL Server Reporting Services. Dos (2) años de experiencia con Microsoft Power BI Desktop, Services, Excel (Powerpivot, Power View, Power Query) Conocimientos técnicos deseable. Desarrollo .NET con C#. Python. Experiencia con Azure o AWS. Microsoft SQL Server Analysis Services (SSAS) enfoque tabular o multidimensionales. Experiencia con BIML. Titulación: Informática - Formación Profesional - Desarrollo de Aplicaciones Web - Matemáticas y Físicas. Condiciones Laborales: Lugar de Trabajo: España - Remoto. Tipo de Contrato: A Término Indefinido / determinada. Salario: A convenir de acuerdo a la experiencia.

  • 13/08/2025

    Madrid

    Seleccionamos: Data cloud engineer Snowflake Ubicación: Madrid. Buscamos un/a data/cloud Engineer altamente capacitado y motivado con experiencia en el desarrollo de tablas analíticas en data warehouse (Snowflake). El candidato/a ideal será experto en trabajar en diferentes entornos (desarrollo, pruebas y producción). También se valora mucho la experiencia con soluciones en la nube, concretamente AWS. El ingeniero de BI desempeñará un papel fundamental en la transformación de datos en ideas prácticas (actionable insights), garantizando la integridad de los datos y respaldando la toma de decisiones de negocio. Indispensable: Experiencia comprobada con el almacén de datos Snowflake, incluido el diseño de esquemas, desarrollo de SQL y optimización del rendimiento. Experiencia con soluciones en la nube de AWS, incluidos S3, Redshift, Lambda y otros servicios relevantes. Conocimiento de los servicios de AWS para almacenamiento, procesamiento y análisis de datos. Implementar y gestionar procesos ETL en el entorno de la nube. Garantizar la seguridad y el cumplimiento de los datos dentro del marco de AWS. Dominio de SQL y experiencia con procesos y herramientas ETL. Gran comprensión de los conceptos y mejores prácticas de data warehousing. Habilidades avanzadas en Tableau u otras herramientas de visualización (como Power BI), no para crear dashboards, sino para gestionar las conexiones. Experiencia con Jira para gestión de proyectos y seguimiento de problemas. Competencia en el uso de GitHub para control de versiones y colaboración. Requisitos deseados: Haber trabajado con DBT. Licenciatura / maestría en informática, tecnología de la información, ciencia de datos o un campo relacionado. Las certificaciones relevantes en Snowflake, AWS, Tableau u otras herramientas de BI son una ventaja. Conocimiento de Python u otros lenguajes de scripting para manipulación y automatización de datos. Funciones: Desarrollo de data warehouse: Diseñar, desarrollar y mantener tablas analíticas en el data warehouse de Snowflake. Optimizar los procesos de almacenamiento y recuperación de datos para garantizar un rendimiento eficiente de las consultas. Implementar técnicas de modelado de datos para respaldar los requisitos comerciales y las necesidades de informes. Informes y visualización: Traducir conjuntos de datos complejos en información visual clara y procesable. Proporcionar análisis de datos ad-hoc y soporte de informes a varias unidades de negocio. Gestión de entornos: Gestionar e implementar soluciones de datos en entornos de desarrollo, pruebas y producción. Garantizar transiciones fluidas entre entornos, minimizando las interrupciones en el acceso a los datos y la generación de informes. Realizar pruebas y validaciones exhaustivas de soluciones de datos en diversos entornos para garantizar la precisión y confiabilidad. Colaboración y Gestión de Proyectos: Colaborar con equipos multifuncionales, incluidos analistas de datos, científicos de datos y partes interesadas del negocio, para comprender las necesidades de datos y ofrecer soluciones. Utilice Jira para realizar un seguimiento y gestionar las tareas, los problemas y el progreso del proyecto. Mantener el control de versiones y administrar repositorios de código usando GitHub. Documentación y Gobierno de Datos: Documentar definiciones de datos, modelos, procesos y flujos de trabajo con fines de referencia y capacitación. Implementar y hacer cumplir políticas de gobierno de datos para garantizar la precisión, coherencia y seguridad de los datos. Realizar controles periódicos de calidad de los datos y solucionar cualquier problema relacionado con los datos. Condiciones: 40h semanales Flexibilidad de horario Rango salarial deseado máximo 56k

  • 28/07/2025

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    Desde CMV Consultores buscamos un Cloud Data Engineer con 3-4 años de experiencia para proyecto en el sector banca, en modalidad 100% remoto (residencia en España, preferiblemente Madrid). Funciones Desarrollo de APIs en AWS (API Gateway, Lambda en Python) Modelado de datos y dashboards en Amazon Quicksight Automatización con GitHub Actions Documentación de arquitecturas en AWS Propuestas técnicas para casos de uso en IA/ML Tecnologías clave Python, SQL, Shell Scripting (bloqueantes) AWS (Lambda, S3, EMR, Glue, CloudWatch, Aurora, Quicksight) GitHub, OpenAPI, API Manager Machine Learning (nivel intermedio) Condiciones: Proyecto remoto Si cumples con los requisitos y te apasiona el mundo del dato en entornos cloud, ¡te estamos esperando!

  • 02/09/2025

    Catalunya

    We are looking for 2 senior Full-Stack Engineers to join our team. You will be part of the Seller Experience squad, a team dedicated to providing top-tier support and tools to sellers operating on the marketplace. The team's main components are the back-office, which enables sellers to run their daily business, as well as the Salesforce suite and the admin-staff, used by our internal Sales team to manage and communicate with the seller pool. The team is currently composed of 2 front-end engineers, 3 back-end engineers, 1 support specialist, 1 Salesforce engineer, 1 designer, 1 PM, and 1 EM. Freelance Budget: 420EUR Bacelona Híbrido Solicitudes abiertas hasta el 26 de Septiembre Mission As a member of the Technology Office, your mission will be the end-to-end development of a project aimed at extracting the features currently hosted in Salesforce and rebuilding them either in the seller back-office or in the admin-staff. Responsibilities: Work closely with the PM, designer, EM, and business team to: Understand the business needs behind the current Salesforce features Identify pain points related to these features Define migration requirements Learn the business domain Collaborate closely with the Salesforce developer, IT support, and EM to: Understand the current implementation of the Salesforce features Determine potential fallback mechanisms to replicate information in Salesforce Ensure other teams are not impacted Integrate our systems with external systems and third-party applications currently connected to Salesforce Perform data migration and ensure data integrity across our database, BigQuery, and Salesforce when necessary Replicate and improve if needed the triggered, scheduled, and screen flows currently present in Salesforce and critical to our platform Maintain our code quality and testing standards Work closely with our BE & FE teams to: Understand and follow our standards Understand the current architecture Maintain the Workato automations that trigger Salesforce flows and will need to be migrated into our stack Profile 5+ years of experience as a skilled developer Experience with distributed systems Experience with data migration and integration tools Basic knowledge of infrastructure (AWS/GCP, SQL) and web patterns (CDN, caching, HTTP) Ability to write optimized and performant code Strong testing practices and clean code principles Solid documentation skills Strong analytical and problem-solving skills Excellent communication skills in English, able to adapt to different audiences Curious, proactive mindset with humility and strong team spirit Required Skills Mandatory: Strong expertise in one of the following: Python technologies JavaScript & Vue 3, Nuxt, and TypeScript Knowledge of: SQL APIs CI environments Cloud platforms Messaging & event queues (RabbitMQ & Kafka) Asynchronous architectures Third-party integrations Monitoring tools (Datadog or similar) English Fluent Nice to Have Experience working with JIRA Salesforce experience Low-code development (Workato) Coding experience in Go Organization 2 days/month in Barcelona 6 month rewable (visibility ~ 2y)

  • 10/09/2025

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    Desarrollador/a Senior Python En Rawson BPO trabajamos para impulsar tu carrera profesional proponiéndote nuevos retos. Trabajarás con las tecnologías más vanguardistas tanto en proyectos nacionales e internacionales. ¿Qué buscamos? Un perfil senior de desarrollo en Python con experiencia específica en el sector financiero/bancario Requisitos imprescindibles: +5 años de experiencia en desarrollo con Python. Experiencia previa en el sector financiero / bancario / fintech. Dominio de frameworks como Django, Flask o FastAPI, así como APIs RESTful y arquitecturas de microservicios. Conocimiento en bases de datos SQL (PostgreSQL, MySQL) y NoSQL (MongoDB, Redis). Experiencia con Cloud (AWS, Azure o GCP), CI/CD y contenedores (Docker/Kubernetes). Inglés C1 (imprescindible para colaborar en proyecto de EEUU). ¿Qué te ofrecemos? Contrato Indefinido Salario competente y revisable Formación continua IT e Idiomas Retribución flexible Modalidad de trabajo: REMOTO ¡Si estás buscando una empresa dónde valores el trato personalizado esta es la tuya!

  • 04/08/2025

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    Modalidad: Remoto Nivel de inglés requerido: Bajo (A2) Tecnología principal: SQL Años de experiencia requeridos: Mínimo 2 años Descripción del Puesto: Se busca un/a profesional con experiencia en Power BI para unirse a un proyecto orientado al análisis y visualización de datos. La posición requiere una sólida base en modelado de datos y habilidades técnicas para el desarrollo de dashboards interactivos y soluciones efectivas para distintos equipos de negocio. Responsabilidades: Diseñar, desarrollar y mantener dashboards y reportes interactivos en Power BI. Realizar procesos ETL: extracción, transformación y carga de datos desde múltiples fuentes. Colaborar con distintos equipos para identificar requerimientos de negocio y traducirlos en visualizaciones útiles. Optimizar el rendimiento de informes y garantizar la calidad e integridad de los datos. Aplicar buenas prácticas en modelado de datos y en la gestión de seguridad dentro del entorno Power BI. Contribuir a la automatización y mejora continua de procesos de reporting. Requisitos Mínimos: Experiencia comprobable de al menos 2 años trabajando con Power BI. Conocimientos sólidos en modelado de datos (DAX, Power Query, relaciones). Manejo de SQL y bases de datos relacionales. Capacidad analítica y atención al detalle. Habilidades de comunicación para presentar insights a usuarios no técnicos. Requisitos Deseables: Experiencia en entornos cloud (Azure, Power BI Service). Conocimientos en Python o R para análisis avanzados. Certificaciones oficiales en Power BI o Microsoft. ¿Qué ofrecemos? Modalidad 100% remota. Incorporación a un proyecto con enfoque en análisis de datos e inteligencia de negocio. Colaboración con equipos multidisciplinarios y entornos tecnológicos actuales. Oportunidades de crecimiento profesional y aprendizaje continuo. Buen ambiente de trabajo, dinámico y orientado a resultados.

  • 05/09/2025

    Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular

    En Rawson BPO buscamos un DevOps - Software Engineer con experiencia en infraestructura y automatización en AWS para dar soporte a proyectos de Generative AI (GenAI). Un Ingeniero de Software con fuerte enfoque en DevOps, Backend y Cloud (AWS), capaz de construir y desplegar infraestructura escalable y segura, automatizar pipelines, e integrar modelos GenAI en entornos productivos. Responsabilidades Implementar y mantener infraestructura AWS para cargas de trabajo GenAI en producción, utilizando servicios como Lambda, API Gateway, DynamoDB, Bedrock, S3, SageMaker e IAM. Desarrollar y mantener componentes GenAI reutilizables en Python, integrados con servicios AWS, incluyendo logging, monitoring y pruebas automatizadas. Diseñar y gestionar infraestructura como código mediante Terraform. Construir y mantener pipelines CI/CD con GitHub Actions (validación, testing, despliegue y chequeos post-deployment). Implementar políticas de seguridad e IAM robustas para la ejecución de cargas GenAI. Colaborar con equipos multidisciplinares (Data Scientists, Backend Engineers y DevOps). Requisitos Experiencia mínima de 5 años en entornos IT. Nivel de inglés C1. Conocimientos obligatorios: AWS (Lambda, API Gateway, Bedrock, S3, SageMaker, IAM). Desarrollo en Python para construcción e integración de componentes GenAI. Terraform para provisión y gestión de infraestructura AWS. CI/CD con GitHub Actions (testing, despliegue y monitorización).

  • 05/09/2025

    Catalunya

    Porque trabajar en Sopra Steria, también es sentir Sopra Steria. Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España. Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente. Tenemos pasión por lo digital y, al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo. Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo! Buscamos un/a Ingeniero de Datos Senior para integrarse en un equipo de ciberseguridad de la administración pública. Tu misión será velar por el cumplimiento de estándares e impulsar la mejora continua y colaborar con equipos especializados en Data e Inteligencia Artificial para fortalecer las capacidades de análisis predictivo y automatización en el ámbito de la ciberseguridad. Responsabilidades y funciones: Diseñar y construir la arquitectura de datos end-to-end, desde la ingesta hasta la capa de consumo, implementando el patrón Medallion (Bronze, Silver, Gold). Desarrollar pipelines de datos robustos y escalables en tiempo real (streaming) y por lotes (batch), utilizando principalmente Azure Databricks (PySpark) y Microsoft Fabric. Implementar el modelo de datos dimensional en la capa Gold para optimizar el consumo por parte de los modelos de IA y los dashboards de Power BI. Garantizar la calidad, gobernanza y linaje de los datos a lo largo de todo el proceso, implementando validaciones automatizadas (DataOps). Colaborar estrechamente con los equipos de Ciencia de Datos y Ciberseguridad para asegurar que la arquitectura de datos cumpla con sus necesidades. Requisitos Sólida experiencia en el ecosistema de datos de Microsoft Azure. Dominio de Azure Databricks (PySpark, Structured Streaming). Experiencia con Azure Data Lake Storage Gen2 y Microsoft Fabric (Data Factory). Experiencia demostrable implementando arquitecturas Lakehouse y el patrón Medallion. Nivel experto en Python y SQL para la transformación de datos a gran escala. Experiencia en Implementación de streaming en plataformas Microsoft / Databricks Exp - 5 años en construcción de pipelines y pyspark Catalán y Castellano ¿Qué tenemos para ti? Contrato indefinido y jornada completa. 23 días de vacaciones al año. Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más! Seguro de vida y de accidentes. Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guardería, transporte, comida y formación). Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas. Onboarding personalizado: te acompañamos en todo momento para que te sientas #soprano desde el primer día. Oficinas con espacios reservados al ocio. ¡Trabajo y diversión unidos! Compañerismo y buen ambiente, el poder de la unión lo tenemos presente. Y lo más importante... la posibilidad de desarrollar tu carrera profesional con nosotros: crearemos juntos un plan de carrera personalizado, con objetivos claros, seguimiento y formación. ¡Aquí tu voz importa! Únete a nosotros y sé parte de algo más. The world is how we shape it. �� Adquirimos el compromiso de respetar la diversidad, creando un ambiente de trabajo inclusivo y aplicando políticas que favorezcan la inclusión y promuevan el respeto social y cultural en cuestiones de género, edad, funcional, orientación sexual y religión con igualdad de oportunidades.

  • 16/09/2025

    Madrid

    Description: Únete a un proyecto de Business Intelligence donde podrás trabajar con grandes volúmenes de datos en AWS y aplicar tu experiencia en Spark, ETL complejos y CI/CD en cloud. Reto técnico y proyección real de carrera. Qué Harás Diseñar e implementar pipelines de datos en AWS con Spark Desarrollar y optimizar procesos ETL complejos en entornos cloud Modelar datos y diseñar esquemas optimizados a gran escala Colaborar con stakeholders y liderar la coordinación de equipos técnicos Asegurar la calidad, seguridad y escalabilidad de los datos Integrar despliegues automatizados (CI/CD) en AWS Imprescindible +2 años de experiencia como Data Engineer en AWS Apache Spark (transformaciones y cálculos a gran escala) Modelado de datos y ETL en cloud AWS (S3, RDS, EMR) SQL avanzado Experiencia en liderazgo y mentoring Inglés medio (imprescindible) Deseable Procesamiento de datos en tiempo real Certificación AWS en datos o arquitecturas cloud Conocimiento de banca privada / modelos de inversión Buen nivel de inglés (alto) ¿Qué es lo que le Ofrecemos? Contrato indefinido Ubicación: Remoto 100%. Horario: 9h-18h (verano 8h-15h) Salario: En función de la experiencia. 30 - 38.000 EUR b/a. Salario competitivo en función de la experiencia Contrato indefinido u Opción de Contrato Mercantil 22 días laborables de vacaciones Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte Formación en Tecnología y Soft Skills Programa de referidos: 500 EUR por candidatos recomendados que se incorporen con nosotros Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Nos comprometemos estar a tu lado en todas las fases del proyecto, para asegurarnos que creces profesionalmente con nosotros, y que tu aportación cuenta. ¿Quieres estar al día con las últimas tecnologías y buscas nuevos desafíos? ¡Envíanos tu CV y nos ponemos en contacto contigo!

  • 16/09/2025

    Madrid

    Desde Grupo Digital, buscamos un perfil con experiencia en IA Generativa - LLM para formar parte de nuestro equipo y colaborar con uno de nuestros clientes del sector servicios tecnológicos. Qué Harás Ajuste, evaluación y optimización de modelos LLM (GPT, BERT, Anthropic, etc.). Implementar y evaluar métricas de IA generativa (coherencia, diversidad, tasa de generación correcta). Optimizar estrategias RAG para mejorar respuestas. Diseñar sistemas de reevaluación y mejora continua. Desarrollar búsqueda semántica y ranking de resultados. Usar Langgraph, agentes y Langchain en arquitecturas ETL. Imprescindible Titulación en informática, telecomunicaciones o ingeniería. Experiencia sólida en LLM e IA generativa. RAG y sistemas de reevaluación. Conocimiento en Langgraph, agentes y Langchain. Experiencia en diseño de arquitecturas ETL Deseable Experiencia en AWS SageMaker y/o Azure Machine Learning. Métricas y KPI de IA generativa (F1, recall, métricas custom). Python (TensorFlow, PyTorch, Hugging Face). Herramientas de visualización (Matplotlib, Plotly, Power BI, Athena). Proactividad, comunicación clara e interés en el estado del arte en IA generativa. ¿Qué Ofrecemos? Contrato indefinido Lugar de trabajo: Madrid (2 días presencial en cliente, zona centro) Horario: Jornada completa Salario: En función de la experiencia laboral Salario competitivo según experiencia. Contrato indefinido u opción de contrato mercantil. 22 días laborables de vacaciones. Plan de retribución flexible: seguro médico, cheques guardería y transporte. Formación continua en tecnología y soft skills. Programa de referidos: 500 EUR por candidatos que se incorporen. Sobre Grupo Digital Somos una consultora tecnológica con sede en Madrid. Especialistas en outsourcing de perfiles IT, selección y modelos Talent-as-a-Service, con foco en grandes integradores y empresas del sector financiero y digital. Apostamos por un servicio excelente, equipos autónomos y resultados medibles. Si te gusta trabajar con tecnologías punteras y en entornos que suman, aquí tendrás recorrido.