La oferta de trabajo Data Engineer (SSIS / Python) ya no está disponible
Aquí tienes ofertas de trabajo similares:
-
22/08/2025
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
Rol: Analista BI (Remoto) Funciones Desarrollo de nuevos sistemas de análisis, explotación de modelos analíticos, desarrollo de nuevos indicadores, mejoras del sistema de Cuadro de Mando, diseño de la arquitectura y procedimientos de explotación del producto PowerBI, mantenimiento, creación de cubos OLAP y modelos tabulares. Requisitos Cuatro (4) años de experiencia con Microsoft SQL Server. Cuatro (4) años de experiencia con Procesos ETL. Cuatro (4) años de experiencia con Microsoft SQL Server Integration Services. Cuatro (4) años de experiencia con Microsoft SQL Server Reporting Services. Dos (2) años de experiencia con Microsoft Power BI Desktop, Services, Excel (Powerpivot, Power View, Power Query) Conocimientos técnicos deseable. Desarrollo .NET con C#. Python. Experiencia con Azure o AWS. Microsoft SQL Server Analysis Services (SSAS) enfoque tabular o multidimensionales. Experiencia con BIML. Titulación: Informática - Formación Profesional - Desarrollo de Aplicaciones Web - Matemáticas y Físicas. Condiciones Laborales: Lugar de Trabajo: España - Remoto. Tipo de Contrato: A Término Indefinido / determinada. Salario: A convenir de acuerdo a la experiencia.
-
28/07/2025
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
Desde CMV Consultores buscamos un Cloud Data Engineer con 3-4 años de experiencia para proyecto en el sector banca, en modalidad 100% remoto (residencia en España, preferiblemente Madrid). Funciones Desarrollo de APIs en AWS (API Gateway, Lambda en Python) Modelado de datos y dashboards en Amazon Quicksight Automatización con GitHub Actions Documentación de arquitecturas en AWS Propuestas técnicas para casos de uso en IA/ML Tecnologías clave Python, SQL, Shell Scripting (bloqueantes) AWS (Lambda, S3, EMR, Glue, CloudWatch, Aurora, Quicksight) GitHub, OpenAPI, API Manager Machine Learning (nivel intermedio) Condiciones: Proyecto remoto Si cumples con los requisitos y te apasiona el mundo del dato en entornos cloud, ¡te estamos esperando!
-
02/09/2025
Cataluña
We are looking for 2 senior Full-Stack Engineers to join our team. You will be part of the Seller Experience squad, a team dedicated to providing top-tier support and tools to sellers operating on the marketplace. The team's main components are the back-office, which enables sellers to run their daily business, as well as the Salesforce suite and the admin-staff, used by our internal Sales team to manage and communicate with the seller pool. The team is currently composed of 2 front-end engineers, 3 back-end engineers, 1 support specialist, 1 Salesforce engineer, 1 designer, 1 PM, and 1 EM. Freelance Budget: 420EUR Bacelona Híbrido Solicitudes abiertas hasta el 26 de Septiembre Mission As a member of the Technology Office, your mission will be the end-to-end development of a project aimed at extracting the features currently hosted in Salesforce and rebuilding them either in the seller back-office or in the admin-staff. Responsibilities: Work closely with the PM, designer, EM, and business team to: Understand the business needs behind the current Salesforce features Identify pain points related to these features Define migration requirements Learn the business domain Collaborate closely with the Salesforce developer, IT support, and EM to: Understand the current implementation of the Salesforce features Determine potential fallback mechanisms to replicate information in Salesforce Ensure other teams are not impacted Integrate our systems with external systems and third-party applications currently connected to Salesforce Perform data migration and ensure data integrity across our database, BigQuery, and Salesforce when necessary Replicate and improve if needed the triggered, scheduled, and screen flows currently present in Salesforce and critical to our platform Maintain our code quality and testing standards Work closely with our BE & FE teams to: Understand and follow our standards Understand the current architecture Maintain the Workato automations that trigger Salesforce flows and will need to be migrated into our stack Profile 5+ years of experience as a skilled developer Experience with distributed systems Experience with data migration and integration tools Basic knowledge of infrastructure (AWS/GCP, SQL) and web patterns (CDN, caching, HTTP) Ability to write optimized and performant code Strong testing practices and clean code principles Solid documentation skills Strong analytical and problem-solving skills Excellent communication skills in English, able to adapt to different audiences Curious, proactive mindset with humility and strong team spirit Required Skills Mandatory: Strong expertise in one of the following: Python technologies JavaScript & Vue 3, Nuxt, and TypeScript Knowledge of: SQL APIs CI environments Cloud platforms Messaging & event queues (RabbitMQ & Kafka) Asynchronous architectures Third-party integrations Monitoring tools (Datadog or similar) English Fluent Nice to Have Experience working with JIRA Salesforce experience Low-code development (Workato) Coding experience in Go Organization 2 days/month in Barcelona 6 month rewable (visibility ~ 2y)
-
13/08/2025
Madrid
Seleccionamos: Data cloud engineer Snowflake Ubicación: Madrid. Buscamos un/a data/cloud Engineer altamente capacitado y motivado con experiencia en el desarrollo de tablas analíticas en data warehouse (Snowflake). El candidato/a ideal será experto en trabajar en diferentes entornos (desarrollo, pruebas y producción). También se valora mucho la experiencia con soluciones en la nube, concretamente AWS. El ingeniero de BI desempeñará un papel fundamental en la transformación de datos en ideas prácticas (actionable insights), garantizando la integridad de los datos y respaldando la toma de decisiones de negocio. Indispensable: Experiencia comprobada con el almacén de datos Snowflake, incluido el diseño de esquemas, desarrollo de SQL y optimización del rendimiento. Experiencia con soluciones en la nube de AWS, incluidos S3, Redshift, Lambda y otros servicios relevantes. Conocimiento de los servicios de AWS para almacenamiento, procesamiento y análisis de datos. Implementar y gestionar procesos ETL en el entorno de la nube. Garantizar la seguridad y el cumplimiento de los datos dentro del marco de AWS. Dominio de SQL y experiencia con procesos y herramientas ETL. Gran comprensión de los conceptos y mejores prácticas de data warehousing. Habilidades avanzadas en Tableau u otras herramientas de visualización (como Power BI), no para crear dashboards, sino para gestionar las conexiones. Experiencia con Jira para gestión de proyectos y seguimiento de problemas. Competencia en el uso de GitHub para control de versiones y colaboración. Requisitos deseados: Haber trabajado con DBT. Licenciatura / maestría en informática, tecnología de la información, ciencia de datos o un campo relacionado. Las certificaciones relevantes en Snowflake, AWS, Tableau u otras herramientas de BI son una ventaja. Conocimiento de Python u otros lenguajes de scripting para manipulación y automatización de datos. Funciones: Desarrollo de data warehouse: Diseñar, desarrollar y mantener tablas analíticas en el data warehouse de Snowflake. Optimizar los procesos de almacenamiento y recuperación de datos para garantizar un rendimiento eficiente de las consultas. Implementar técnicas de modelado de datos para respaldar los requisitos comerciales y las necesidades de informes. Informes y visualización: Traducir conjuntos de datos complejos en información visual clara y procesable. Proporcionar análisis de datos ad-hoc y soporte de informes a varias unidades de negocio. Gestión de entornos: Gestionar e implementar soluciones de datos en entornos de desarrollo, pruebas y producción. Garantizar transiciones fluidas entre entornos, minimizando las interrupciones en el acceso a los datos y la generación de informes. Realizar pruebas y validaciones exhaustivas de soluciones de datos en diversos entornos para garantizar la precisión y confiabilidad. Colaboración y Gestión de Proyectos: Colaborar con equipos multifuncionales, incluidos analistas de datos, científicos de datos y partes interesadas del negocio, para comprender las necesidades de datos y ofrecer soluciones. Utilice Jira para realizar un seguimiento y gestionar las tareas, los problemas y el progreso del proyecto. Mantener el control de versiones y administrar repositorios de código usando GitHub. Documentación y Gobierno de Datos: Documentar definiciones de datos, modelos, procesos y flujos de trabajo con fines de referencia y capacitación. Implementar y hacer cumplir políticas de gobierno de datos para garantizar la precisión, coherencia y seguridad de los datos. Realizar controles periódicos de calidad de los datos y solucionar cualquier problema relacionado con los datos. Condiciones: 40h semanales Flexibilidad de horario Rango salarial deseado máximo 56k
-
05/09/2025
Cataluña
Porque trabajar en Sopra Steria, también es sentir Sopra Steria. Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España. Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente. Tenemos pasión por lo digital y, al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo. Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo! Buscamos un/a Ingeniero de Datos Senior para integrarse en un equipo de ciberseguridad de la administración pública. Tu misión será velar por el cumplimiento de estándares e impulsar la mejora continua y colaborar con equipos especializados en Data e Inteligencia Artificial para fortalecer las capacidades de análisis predictivo y automatización en el ámbito de la ciberseguridad. Responsabilidades y funciones: Diseñar y construir la arquitectura de datos end-to-end, desde la ingesta hasta la capa de consumo, implementando el patrón Medallion (Bronze, Silver, Gold). Desarrollar pipelines de datos robustos y escalables en tiempo real (streaming) y por lotes (batch), utilizando principalmente Azure Databricks (PySpark) y Microsoft Fabric. Implementar el modelo de datos dimensional en la capa Gold para optimizar el consumo por parte de los modelos de IA y los dashboards de Power BI. Garantizar la calidad, gobernanza y linaje de los datos a lo largo de todo el proceso, implementando validaciones automatizadas (DataOps). Colaborar estrechamente con los equipos de Ciencia de Datos y Ciberseguridad para asegurar que la arquitectura de datos cumpla con sus necesidades. Requisitos Sólida experiencia en el ecosistema de datos de Microsoft Azure. Dominio de Azure Databricks (PySpark, Structured Streaming). Experiencia con Azure Data Lake Storage Gen2 y Microsoft Fabric (Data Factory). Experiencia demostrable implementando arquitecturas Lakehouse y el patrón Medallion. Nivel experto en Python y SQL para la transformación de datos a gran escala. Experiencia en Implementación de streaming en plataformas Microsoft / Databricks Exp - 5 años en construcción de pipelines y pyspark Catalán y Castellano ¿Qué tenemos para ti? Contrato indefinido y jornada completa. 23 días de vacaciones al año. Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más! Seguro de vida y de accidentes. Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guardería, transporte, comida y formación). Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas. Onboarding personalizado: te acompañamos en todo momento para que te sientas #soprano desde el primer día. Oficinas con espacios reservados al ocio. ¡Trabajo y diversión unidos! Compañerismo y buen ambiente, el poder de la unión lo tenemos presente. Y lo más importante... la posibilidad de desarrollar tu carrera profesional con nosotros: crearemos juntos un plan de carrera personalizado, con objetivos claros, seguimiento y formación. ¡Aquí tu voz importa! Únete a nosotros y sé parte de algo más. The world is how we shape it. �� Adquirimos el compromiso de respetar la diversidad, creando un ambiente de trabajo inclusivo y aplicando políticas que favorezcan la inclusión y promuevan el respeto social y cultural en cuestiones de género, edad, funcional, orientación sexual y religión con igualdad de oportunidades.
-
13/08/2025
Madrid
BUSCAMOS: Big Data Architect/Engineer Para importante empresa Sector Tecnológico buscamos Profesional con experiencia contrastada (mínimo 6 años) desempeñando el Role de Big Data Architect o Big Data Engineer que haya hecho Desarrollo en proyectos de big data y/o diseñado arquitectura. Conocimientos & Experiencia con: ■ Python, spark, scala ■ conocimientos en la nube (AWS, Azure o GCP) Formación ■ Deseable titulación en carreras técnicas (ingenierías) Idioma ■ Español ■ Inglés (deseable no obligatorio) SE OFRECE: · Contrato Indefinido (jornada completa) · Oferta económica: 40k/60k (según experiencia aportada) · Localización: España - Teletrabajo 100% · Incorporación: ASAP
-
26/08/2025
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
We are still looking for the very Top Talent...and we would be delighted if you were to join our team! More in details, UST is a multinational company based in North America, certified as a Top Employer and Great Place to Work company with over 35.000 employees all over the world and presence in more than 35 countries. We are leaders on digital technology services, and we provide large-scale technologic solutions to big companies. What we look for? For one of those projects, we are seeking a dynamic and experienced Data Engineer (Snowflake) with strong SQL, Testing, ETLs, etc. 100% remote position for people located in Spain. Key Responsibilities: Design and execute test plans. Data Validation for accuracy and completeness. Perform ETL process verification and ensure dependencies are functioning as expected. Collaborate with engineering and data teams to triage issues and resolve defects. Document test results, issues, and resolutions clearly and consistently. Ensure security and access controls are preserved. Test Automation into CI Pipeline. Ensure Error Handling and Logging behaving as expected. Conduct performance testing. Mandatory requirements: Proven experience testing data migrations. Strong Data warehousing / Dimensional Modelling concepts. Strong SQL expertise. Strong Azure Data Factory (ADF), Synapse and Snowflake. Experience with automated testing tools. Ability to validate data transformations and outputs. Experience with Integration Testing, Exploratory Testing and Performance Testing Excellent communication and documentation skills. Experience working with 3rd party vendors Desirable: Background in performance tuning and query optimization. Exposure to scripting languages (e.g., Python) for test automation. Visual Studio, C#, XUnit, ADO, GIT PowerBI experience to help repoint reports to Snowflake ¿What can we offer? 23 days of Annual Leave plus the 24th and 31st of December as discretionary days! Numerous benefits (Heath Care Plan, Internet Connectivity, Life and Accident Insurances). Retribución Flexible´ Program: (Meals, Kinder Garden, Transport, online English lessons, Heath Care Plan...) Free access to several training platforms Professional stability and career plans UST also, compensates referrals from which you could benefit when you refer professionals. The option to pick between 12 or 14 payments along the year. Real Work Life Balance measures (flexibility, WFH or remote work policy, compacted hours during summertime...) UST Club Platform discounts and gym Access discounts If you would like to know more, do not hesitate to apply and we'll get in touch to fill you in details. UST is waiting for you! In UST we are committed to equal opportunities in our selection processes and do not discriminate based on race, gender, disability, age, religion, sexual orientation or nationality. We have a special commitment to Disability & Inclusion, so we are interested in hiring people with disability certificate.
-
15/07/2025
Madrid
En Krell Consulting, nos encontramos en la búsqueda de un Data Lead, para incorporarse a nuestro equipo, en proyecto del sector banca, en modalidad remota. PERFIL: Data Lead SECTOR: Banca MODALIDAD DE TRABAJO: Remoto 100% (desde España) DURACIÓN PROYECTO: Larga duración. FUNCIONES: Data Analyst con rol de Data lead para liderar el equipo de Data. Responsable de la captura de los requisitos generales del flujo de trabajo y de la documentación de los entregables finales. Identificar las fuentes de datos estratégicas de las fuentes de datos actuales y determinar las brechas o impactos Liderar un equipo que implementará soluciones tecnológicas para automatizar tareas y simplificar los procesos de reporte Trabajar con los arquitectos de soluciones, los equipos de análisis de datos y soluciones de BI para acordar el estado objetivo REQUERIDO: Tiempo de experiencia: + 7 años Inglés: C1 Tecnologías obligatorias: Experiencia práctica en la dirección de un flujo de trabajo de datos, incluido el mapeo de datos, los controles de calidad y la modelización, y la dirección de otros BA y la dirección de desarrolladores. Obtención y documentación de requisitos funcionales y creación de especificaciones técnicas Capacidad para crear / administrar planes de flujo de trabajo y resolver problemas / mitigar riesgos Fuertes habilidades de SQL para llevar a cabo el análisis de datos Tecnologías deseables: AWS y ser capaz de seleccionar la solución ETL/BI adecuada Comprensión de cómo entrenar chatbots / IA Experiencia en la creación de cuadros de mando de BI Ofrecemos: Contrato indefinido. Si estás interesad@, no dudes en aplicar a la posición. Nota: Los currículums deberán estar en inglés. ¡Te esperamos para unirte a Krell-Consulting!
-
03/09/2025
Madrid
Data Engineer / Python Developer - Sector Financiero En Zemsania buscamos incorporar a nuestro equipo un/a Data Engineer / Python Developer para un proyecto estable en el sector financiero, trabajando con tecnologías punteras y en un entorno colaborativo. La contratación será directa con Zemsania y formarás parte de un equipo que desarrolla y mantiene soluciones de alto impacto, con foco en la calidad y la innovación. Horario Lunes a viernes: 09:00 a 18:00 h Jornada intensiva en verano: 08:00 a 15:00 h Funciones principales Mantenimiento y evolución de aplicativos de gestión desarrollados en Java. Desarrollo y optimización de procesos ETL/ELT. Modelado y gestión de bases de datos. Implementación de procesos de control de versiones y despliegues (CICD). Trabajo en entornos Cloud y colaboración en proyectos de integración de datos. Requisitos mínimos Experiencia en desarrollo con Python. Conocimientos y experiencia en SQL y GIT. Experiencia con plataformas de integración de datos ETL/ELT. Experiencia en entornos Cloud. Conocimientos de procesos de CICD y ciclo de vida de aplicaciones. Requisitos deseables Experiencia con tecnologías Data de Google Cloud Platform: DBT (Data Build Tool) BigQuery Composer (Airflow) Experiencia en procesos de Data Quality y Gobierno del dato (Docker, YAML). Qué ofrecemos Contrato estable con Zemsania. Acompañamiento personalizado con People Partner. Plan de certificaciones y formación continua. Retribución flexible. Proyecto en entorno tecnológico avanzado y sector en crecimiento. En Zemsania, creemos en la igualdad de oportunidades y en la diversidad como valores fundamentales para el éxito de nuestra organización. Por ello, garantizamos un proceso de selección basado en el mérito y sin discriminación por motivos de género, edad, discapacidad, orientación sexual, raza, religión o cualquier otra condición personal o social.
-
05/09/2025
Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular
En Rawson BPO buscamos un DevOps - Software Engineer con experiencia en infraestructura y automatización en AWS para dar soporte a proyectos de Generative AI (GenAI). Un Ingeniero de Software con fuerte enfoque en DevOps, Backend y Cloud (AWS), capaz de construir y desplegar infraestructura escalable y segura, automatizar pipelines, e integrar modelos GenAI en entornos productivos. Responsabilidades Implementar y mantener infraestructura AWS para cargas de trabajo GenAI en producción, utilizando servicios como Lambda, API Gateway, DynamoDB, Bedrock, S3, SageMaker e IAM. Desarrollar y mantener componentes GenAI reutilizables en Python, integrados con servicios AWS, incluyendo logging, monitoring y pruebas automatizadas. Diseñar y gestionar infraestructura como código mediante Terraform. Construir y mantener pipelines CI/CD con GitHub Actions (validación, testing, despliegue y chequeos post-deployment). Implementar políticas de seguridad e IAM robustas para la ejecución de cargas GenAI. Colaborar con equipos multidisciplinares (Data Scientists, Backend Engineers y DevOps). Requisitos Experiencia mínima de 5 años en entornos IT. Nivel de inglés C1. Conocimientos obligatorios: AWS (Lambda, API Gateway, Bedrock, S3, SageMaker, IAM). Desarrollo en Python para construcción e integración de componentes GenAI. Terraform para provisión y gestión de infraestructura AWS. CI/CD con GitHub Actions (testing, despliegue y monitorización).