L'oferta de treball Desarrollador/a Python ja no està disponible
Aquí hi són algunes ofertes similars:
-
10/09/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
Desarrollador/a Senior Python En Rawson BPO trabajamos para impulsar tu carrera profesional proponiéndote nuevos retos. Trabajarás con las tecnologías más vanguardistas tanto en proyectos nacionales e internacionales. ¿Qué buscamos? Un perfil senior de desarrollo en Python con experiencia específica en el sector financiero/bancario Requisitos imprescindibles: +5 años de experiencia en desarrollo con Python. Experiencia previa en el sector financiero / bancario / fintech. Dominio de frameworks como Django, Flask o FastAPI, así como APIs RESTful y arquitecturas de microservicios. Conocimiento en bases de datos SQL (PostgreSQL, MySQL) y NoSQL (MongoDB, Redis). Experiencia con Cloud (AWS, Azure o GCP), CI/CD y contenedores (Docker/Kubernetes). Inglés C1 (imprescindible para colaborar en proyecto de EEUU). ¿Qué te ofrecemos? Contrato Indefinido Salario competente y revisable Formación continua IT e Idiomas Retribución flexible Modalidad de trabajo: REMOTO ¡Si estás buscando una empresa dónde valores el trato personalizado esta es la tuya!
-
02/09/2025
Catalunya
We are looking for 2 senior Full-Stack Engineers to join our team. You will be part of the Seller Experience squad, a team dedicated to providing top-tier support and tools to sellers operating on the marketplace. The team's main components are the back-office, which enables sellers to run their daily business, as well as the Salesforce suite and the admin-staff, used by our internal Sales team to manage and communicate with the seller pool. The team is currently composed of 2 front-end engineers, 3 back-end engineers, 1 support specialist, 1 Salesforce engineer, 1 designer, 1 PM, and 1 EM. Freelance Budget: 420EUR Bacelona Híbrido Solicitudes abiertas hasta el 26 de Septiembre Mission As a member of the Technology Office, your mission will be the end-to-end development of a project aimed at extracting the features currently hosted in Salesforce and rebuilding them either in the seller back-office or in the admin-staff. Responsibilities: Work closely with the PM, designer, EM, and business team to: Understand the business needs behind the current Salesforce features Identify pain points related to these features Define migration requirements Learn the business domain Collaborate closely with the Salesforce developer, IT support, and EM to: Understand the current implementation of the Salesforce features Determine potential fallback mechanisms to replicate information in Salesforce Ensure other teams are not impacted Integrate our systems with external systems and third-party applications currently connected to Salesforce Perform data migration and ensure data integrity across our database, BigQuery, and Salesforce when necessary Replicate and improve if needed the triggered, scheduled, and screen flows currently present in Salesforce and critical to our platform Maintain our code quality and testing standards Work closely with our BE & FE teams to: Understand and follow our standards Understand the current architecture Maintain the Workato automations that trigger Salesforce flows and will need to be migrated into our stack Profile 5+ years of experience as a skilled developer Experience with distributed systems Experience with data migration and integration tools Basic knowledge of infrastructure (AWS/GCP, SQL) and web patterns (CDN, caching, HTTP) Ability to write optimized and performant code Strong testing practices and clean code principles Solid documentation skills Strong analytical and problem-solving skills Excellent communication skills in English, able to adapt to different audiences Curious, proactive mindset with humility and strong team spirit Required Skills Mandatory: Strong expertise in one of the following: Python technologies JavaScript & Vue 3, Nuxt, and TypeScript Knowledge of: SQL APIs CI environments Cloud platforms Messaging & event queues (RabbitMQ & Kafka) Asynchronous architectures Third-party integrations Monitoring tools (Datadog or similar) English Fluent Nice to Have Experience working with JIRA Salesforce experience Low-code development (Workato) Coding experience in Go Organization 2 days/month in Barcelona 6 month rewable (visibility ~ 2y)
-
28/07/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
¡Apiux está buscando un/a PROGRAMADOR PYTHON para TELETRABAJAR!!! Somos una empresa tecnológica especializada en apoyar a organizaciones de todas las industrias en su proceso de Transformación Digital. Estamos presentes en Chile, Perú, Colombia, EE. UU, España y seguimos en constante expansión. Cliente: Líder en el Sector Experiencia: 5 años Contrato: Indefinido Modalidad: Teletrabajo Conocimiento Clave: PYTHON Horario: Oficina Incorporación: Inmediata Salario: 20.000 - 21.000 Requisitos Obligatorios: Imprescindible Experiencia con programación en Spark y Python (Pyspark). Se busca un perfil de desarrollo Python, no data. Conocimientos de AWS: principalmente trabajar SageMaker para analizar datos y también para desarrollar los engines. Puede ser necesario el uso Athena para, esencialmente, comprobar que existan las particiones de las tablas y para generar las tablas de las que tira actualmente los sistemas de visualización. También viene bien el uso de CloudWatch y también la interfaz de S3. Experiencia con GIT, Maven, Jenkins, Artifactory, Sonar, etc. Beneficios: Contrato indefinido Rango salarial competitivo en función a la experiencia 23 días de vacaciones 4 días al año de vacaciones por permanencia en la empresa a partir del primer año Apiux Academy: Formación, entrenamientos técnicos e interacción con la comunidad tech para desarrollar tu talento al máximo. Día de tu cumpleaños libre. Bonos por nacimiento, matrimonio y referidos. Happy Points: Un sistema de puntos que puedes canjear por días libres. Proyectos de larga duración y en algunos casos internacionales. Y-Share: ¡Sé dueño de una parte de la compañía uniéndose a nuestro programa! Apiux Tecnología es una empresa que acelera y permite el crecimiento con tecnología, innovación y desarrollo del talento. Con ello, apoyamos a las organizaciones en su proceso de transformación digital, modernización e implementaciones. ¡Aplica ahora y prepárate para liderar el cambio!
-
22/08/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
Rol: Analista BI (Remoto) Funciones Desarrollo de nuevos sistemas de análisis, explotación de modelos analíticos, desarrollo de nuevos indicadores, mejoras del sistema de Cuadro de Mando, diseño de la arquitectura y procedimientos de explotación del producto PowerBI, mantenimiento, creación de cubos OLAP y modelos tabulares. Requisitos Cuatro (4) años de experiencia con Microsoft SQL Server. Cuatro (4) años de experiencia con Procesos ETL. Cuatro (4) años de experiencia con Microsoft SQL Server Integration Services. Cuatro (4) años de experiencia con Microsoft SQL Server Reporting Services. Dos (2) años de experiencia con Microsoft Power BI Desktop, Services, Excel (Powerpivot, Power View, Power Query) Conocimientos técnicos deseable. Desarrollo .NET con C#. Python. Experiencia con Azure o AWS. Microsoft SQL Server Analysis Services (SSAS) enfoque tabular o multidimensionales. Experiencia con BIML. Titulación: Informática - Formación Profesional - Desarrollo de Aplicaciones Web - Matemáticas y Físicas. Condiciones Laborales: Lugar de Trabajo: España - Remoto. Tipo de Contrato: A Término Indefinido / determinada. Salario: A convenir de acuerdo a la experiencia.
-
13/08/2025
Madrid
BUSCAMOS: Big Data Architect/Engineer Para importante empresa Sector Tecnológico buscamos Profesional con experiencia contrastada (mínimo 6 años) desempeñando el Role de Big Data Architect o Big Data Engineer que haya hecho Desarrollo en proyectos de big data y/o diseñado arquitectura. Conocimientos & Experiencia con: ■ Python, spark, scala ■ conocimientos en la nube (AWS, Azure o GCP) Formación ■ Deseable titulación en carreras técnicas (ingenierías) Idioma ■ Español ■ Inglés (deseable no obligatorio) SE OFRECE: · Contrato Indefinido (jornada completa) · Oferta económica: 40k/60k (según experiencia aportada) · Localización: España - Teletrabajo 100% · Incorporación: ASAP
-
13/08/2025
Madrid
Seleccionamos: Data cloud engineer Snowflake Ubicación: Madrid. Buscamos un/a data/cloud Engineer altamente capacitado y motivado con experiencia en el desarrollo de tablas analíticas en data warehouse (Snowflake). El candidato/a ideal será experto en trabajar en diferentes entornos (desarrollo, pruebas y producción). También se valora mucho la experiencia con soluciones en la nube, concretamente AWS. El ingeniero de BI desempeñará un papel fundamental en la transformación de datos en ideas prácticas (actionable insights), garantizando la integridad de los datos y respaldando la toma de decisiones de negocio. Indispensable: Experiencia comprobada con el almacén de datos Snowflake, incluido el diseño de esquemas, desarrollo de SQL y optimización del rendimiento. Experiencia con soluciones en la nube de AWS, incluidos S3, Redshift, Lambda y otros servicios relevantes. Conocimiento de los servicios de AWS para almacenamiento, procesamiento y análisis de datos. Implementar y gestionar procesos ETL en el entorno de la nube. Garantizar la seguridad y el cumplimiento de los datos dentro del marco de AWS. Dominio de SQL y experiencia con procesos y herramientas ETL. Gran comprensión de los conceptos y mejores prácticas de data warehousing. Habilidades avanzadas en Tableau u otras herramientas de visualización (como Power BI), no para crear dashboards, sino para gestionar las conexiones. Experiencia con Jira para gestión de proyectos y seguimiento de problemas. Competencia en el uso de GitHub para control de versiones y colaboración. Requisitos deseados: Haber trabajado con DBT. Licenciatura / maestría en informática, tecnología de la información, ciencia de datos o un campo relacionado. Las certificaciones relevantes en Snowflake, AWS, Tableau u otras herramientas de BI son una ventaja. Conocimiento de Python u otros lenguajes de scripting para manipulación y automatización de datos. Funciones: Desarrollo de data warehouse: Diseñar, desarrollar y mantener tablas analíticas en el data warehouse de Snowflake. Optimizar los procesos de almacenamiento y recuperación de datos para garantizar un rendimiento eficiente de las consultas. Implementar técnicas de modelado de datos para respaldar los requisitos comerciales y las necesidades de informes. Informes y visualización: Traducir conjuntos de datos complejos en información visual clara y procesable. Proporcionar análisis de datos ad-hoc y soporte de informes a varias unidades de negocio. Gestión de entornos: Gestionar e implementar soluciones de datos en entornos de desarrollo, pruebas y producción. Garantizar transiciones fluidas entre entornos, minimizando las interrupciones en el acceso a los datos y la generación de informes. Realizar pruebas y validaciones exhaustivas de soluciones de datos en diversos entornos para garantizar la precisión y confiabilidad. Colaboración y Gestión de Proyectos: Colaborar con equipos multifuncionales, incluidos analistas de datos, científicos de datos y partes interesadas del negocio, para comprender las necesidades de datos y ofrecer soluciones. Utilice Jira para realizar un seguimiento y gestionar las tareas, los problemas y el progreso del proyecto. Mantener el control de versiones y administrar repositorios de código usando GitHub. Documentación y Gobierno de Datos: Documentar definiciones de datos, modelos, procesos y flujos de trabajo con fines de referencia y capacitación. Implementar y hacer cumplir políticas de gobierno de datos para garantizar la precisión, coherencia y seguridad de los datos. Realizar controles periódicos de calidad de los datos y solucionar cualquier problema relacionado con los datos. Condiciones: 40h semanales Flexibilidad de horario Rango salarial deseado máximo 56k
-
28/07/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
Desde CMV Consultores buscamos un Cloud Data Engineer con 3-4 años de experiencia para proyecto en el sector banca, en modalidad 100% remoto (residencia en España, preferiblemente Madrid). Funciones Desarrollo de APIs en AWS (API Gateway, Lambda en Python) Modelado de datos y dashboards en Amazon Quicksight Automatización con GitHub Actions Documentación de arquitecturas en AWS Propuestas técnicas para casos de uso en IA/ML Tecnologías clave Python, SQL, Shell Scripting (bloqueantes) AWS (Lambda, S3, EMR, Glue, CloudWatch, Aurora, Quicksight) GitHub, OpenAPI, API Manager Machine Learning (nivel intermedio) Condiciones: Proyecto remoto Si cumples con los requisitos y te apasiona el mundo del dato en entornos cloud, ¡te estamos esperando!
-
18/09/2025
Catalunya
Senior Java Backend Developer Buscamos un Senior Java Backend Developer con experiencia consolidada en el desarrollo de aplicaciones Spring Boot y buen nivel de INGLÉS para incorporarse a un proyecto de gran relevancia, en SECTOR SEGUROS, para compañía de primer nivel. Responsabilidades del puesto: Desarrollar e implementar aplicaciones web del lado del servidor y del cliente utilizando Web MVC y REST. Diseñar, desarrollar e integrar componentes event-driven basados en Apache Kafka. Garantizar la calidad del software mediante pruebas unitarias, de integración y E2E. Empaquetar y desplegar aplicaciones Spring en entornos cloud basados en contenedores (Kubernetes, AWS, Azure). Participar en la operación, mantenimiento y evolución continua de los desarrollos dentro de un entorno DevOps. Si cumples con los requisitos y buscas un nuevo reto profesional en un entorno tecnológico innovador y dinámico, envíanos tu candidatura y únete a nuestro equipo. Krell-consulting está comprometido con la diversidad y la inclusión. Se alienta a postularse a todas las personas calificadas, independientemente de su origen, género, identidad de género, orientación sexual, edad, discapacidad o cualquier otra característica personal. ¡Únete a nosotros y forma parte de un equipo que impulsa la innovación! Experiencia mínima de 3 a 5 años en desarrollo con Java y Spring Boot. Formación mínima: Ciclo Formativo de Grado Superior. Nivel de inglés B2 o C1 (imprescindible). Experiencia en entornos cloud (Kubernetes, AWS, Azure) y en metodologías DevOps Java y Kotlin en sus versiones más recientes. Spring Boot con uso avanzado de sus componentes principales: Dependency Injection, Configuration, Security, AOP, Logging, etc. Bases de datos relacionales y NoSQL. Condiciones Formato de trabajo: Se requiere de cierta presencialidad en Barcelona. Candidatos de Barcelona, dos días a la semana en oficinas sitas en zona Avd. DAlcaria. Se valoran candidaturas de fuera de Barcelona para trasladarse 1 día cada dos semanas a Barcelona en AVE.
-
26/08/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
We are still looking for the very Top Talent...and we would be delighted if you were to join our team! More in details, UST is a multinational company based in North America, certified as a Top Employer and Great Place to Work company with over 35.000 employees all over the world and presence in more than 35 countries. We are leaders on digital technology services, and we provide large-scale technologic solutions to big companies. What we look for? For one of those projects, we are seeking a dynamic and experienced Data Engineer (Snowflake) with strong SQL, Testing, ETLs, etc. 100% remote position for people located in Spain. Key Responsibilities: Design and execute test plans. Data Validation for accuracy and completeness. Perform ETL process verification and ensure dependencies are functioning as expected. Collaborate with engineering and data teams to triage issues and resolve defects. Document test results, issues, and resolutions clearly and consistently. Ensure security and access controls are preserved. Test Automation into CI Pipeline. Ensure Error Handling and Logging behaving as expected. Conduct performance testing. Mandatory requirements: Proven experience testing data migrations. Strong Data warehousing / Dimensional Modelling concepts. Strong SQL expertise. Strong Azure Data Factory (ADF), Synapse and Snowflake. Experience with automated testing tools. Ability to validate data transformations and outputs. Experience with Integration Testing, Exploratory Testing and Performance Testing Excellent communication and documentation skills. Experience working with 3rd party vendors Desirable: Background in performance tuning and query optimization. Exposure to scripting languages (e.g., Python) for test automation. Visual Studio, C#, XUnit, ADO, GIT PowerBI experience to help repoint reports to Snowflake ¿What can we offer? 23 days of Annual Leave plus the 24th and 31st of December as discretionary days! Numerous benefits (Heath Care Plan, Internet Connectivity, Life and Accident Insurances). Retribución Flexible´ Program: (Meals, Kinder Garden, Transport, online English lessons, Heath Care Plan...) Free access to several training platforms Professional stability and career plans UST also, compensates referrals from which you could benefit when you refer professionals. The option to pick between 12 or 14 payments along the year. Real Work Life Balance measures (flexibility, WFH or remote work policy, compacted hours during summertime...) UST Club Platform discounts and gym Access discounts If you would like to know more, do not hesitate to apply and we'll get in touch to fill you in details. UST is waiting for you! In UST we are committed to equal opportunities in our selection processes and do not discriminate based on race, gender, disability, age, religion, sexual orientation or nationality. We have a special commitment to Disability & Inclusion, so we are interested in hiring people with disability certificate.
-
05/09/2025
Andalusia, Aragó, Astúries, País Vasco, Cantàbria, Castella i Lleó, Castella-La Manxa, Catalunya, Extremadura, Galícia, La Rioja, Madrid, Múrcia, Navarra, Comunitat Valenciana, No peninsular
Requisitos mínimos Perfil / Experiencia / Funciones: Al menos 3 o 4 años de experiencia reseñable en el ámbito de Big Data / Data Engineering / Ingeniería del Dato, ETL - Python, Grandes Ingestas, SQL etc... Experiencia y conocimiento demostrable con ecosistema Data con Google Cloud. Experiencia y conocimiento demostrable con Airflow, (En este caso, interesante por ende que sea Airflow Composer de GCP). Valorables: Experiencias en Migraciones, y ámbitos tipo Unix Preferiblemente experiencia o conocimiento de BigQuery. Descripción Buscamos Data Engineer con experiencia en Google Cloud y Airflow Composer (en GCP). + SQL, Ingestas, migraciones, valorable conocimientos de entorno Unix etc... y que provenga preferiblemente de conocimiento de BigQuery. Formato de teletrabajo total 100%, Proyectos de alto impacto trabajando para gran compañía final del entorno de las Telecomunicaciones. Condiciones Base: Formato de Teletrabajo total 100%. Contratación indefinida inicial por nosotros Sandav Consultores, prestando servicio para nuestra compañía cliente Especializada en servicios Importantes para grandes compañías en IT / TI, con la posibilidad de fondo en periodo de en torno al año acabar internalizado / contratado por empresa cliente. Horario habitual de oficina de 9 a 18H, viernes hasta las 15H, en principio así todo el año. Sin guardias, ni desplazamientos y con la posibilidad de fondo de flexibilización habitual de horarios de entrada y salida en función del proyecto a conocer con el avance del proceso. Salario en función de perfil / experiencia: Abierto entre ámbitos de los 45.000 hasta salarios por entornos de los 55-58.000 EUR/B Anuales aproximadamente como estimación. ¿Quieres trabajar en una empresa en la que sabemos cómo te llamas, nos preocupamos por tu bienestar y cuando necesitas algo te atendemos al momento? SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, que en resumen quiere decir que CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com