The job offer Data Analyst (Inglés e Italiano) is not available any more
Here are some similar offers:
-
12/09/2025
Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular
Científico/a de Datos ¿Eres Data Scientist y buscas trabajo 100% remoto? Esta oferta es para ti. En Quental estamos buscando Científic@s de datos con mentalidad analítica y pasión por la innovación para sumarse a nuestro equipo, donde el crecimiento personal va de la mano del desarrollo profesional. Lo que Harás: Resolver retos de negocio con modelos predictivos reales. Definir y desarrollar soluciones end-to-end, aplicando modelos Machine Learning. Realización de las funciones end-to-end desde cero basadas en soluciones de análisis de datos e IA. Documentación técnica y funcional. Lo que Buscamos en Ti: Grado universitario en Matemáticas, Estadística o Ingeniería Informática. 3 años de experiencia real en proyectos de machine learning tradicional. Dominio de Python (scikit-learn, pandas, NumPy) y SQL. PySpark (Muy Valorable) ¡Y si sabes R o tienes don de gentes, lo valoramos mucho! Lo que Ofrecemos: Contrato indefinido, Jornada completa. Rango salarial: de acuerdo a la experiencia aportada Trabajo 100% remoto Horario de trabajo de oficina, ¡tenemos los viernes intensivos! Inclusión en el programa de beneficios y descuentos, para disfrutar de tus eventos, vacaciones, compras diarias y caprichos, beneficiándote de todos los descuentos que aporta el Quental Club Benefits! Desarrollo de carrera en un ambiente colaborativo y con bonificaciones a tu formación continua, para que siempre estés actualizado y a la última en cuanto a tecnología y tendencias en transformación digital. ¿Listo/a para dar el siguiente paso en tu carrera? Postúlate hoy y empieza a trabajar desde donde quieras, con quienes creen en lo que haces.
-
07/10/2025
Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular
Elegir Capgemini es elegir la posibilidad de dar forma a tu carrera profesional como desees. Recibirás el apoyo y la inspiración de una comunidad colaborativa de colegas de todo el mundo y podrás reinventar lo que es posible. Únete a nuestro equipo y ayuda a las principales organizaciones del mundo a descubrir el valor de la tecnología y a construir un mundo más sostenible e inclusivo. Nuestro equipo de Data & AI estará encantado de que te unas. Tenemos numerosos proyectos multisectoriales, tanto nacionales como internacionales que te esperan. Con formación y certificaciones, podrás crecer y/o reorientar tu perfil dentro del área del dato. ¿Qué harás en el proyecto? ¿Cuál será tu rol? Como Ingeniero/a de Datos de Azure, serás responsable de ampliar y optimizar las arquitecturas de datos y canalizaciones, así como de optimizar la recopilación y el flujo de datos en todos los equipos funcionales. Al mismo tiempo... Podrás desarrollar proyectos desde cero con la colaboración del equipo. Participarás en el diseño de arquitecturas y toma de decisiones en un entorno constructivo. Desarrollarás proyectos en Cloud Construirás pipelines escalables con diferentes tecnologías. Para sentirte a gusto en la posición, se requiere: Experiencia de entre 3 y 5 años como Data Engineer trabajando con SQL (SMSS), Python (Silver) y Azure (Azure Synapse, Azure DevOps, incluyendo Git, y/o PySpark). Experiencia con bases de datos relacionales y modelado de datos. Experiencia con herramientas de BI como Power BI y conocimientos de procesos ETL. Conocimientos de pruebas unitarias, configuración de pipelines de datos y linaje de datos. Experiencia aplicando soluciones en la nube de Azure como Azure Data Factory, Azure Data Lake Storage y Azure Synapse Analytics. Se valorará positivamente conocimiento de SAS, así como conocimiento de aplicaciones de IA para convertir eficientemente código SAS a la arquitectura objetivo (SQL - PySpark). Habilidades comunicativas para interlocutar con arquitectos/as de datos y el resto del equipo. Nivel fluido de inglés oral y escrito. Proactividad, responsabilidad, buena capacidad de gestión del tiempo, trabajo en equipo. Se valorará positivamente el poseer certificado de discapacidad, en el marco de nuestra política de inclusión y diversidad Valoraremos todas las candidaturas. Contamos con una amplísima oferta formativa, presencial, online de Certificaciones, etc. Aunque no tengas el 100% de los conocimientos valorados ¡nos encantará conocerte! Nuestro compromiso con la inclusión e igualdad de oportunidades hace que tengamos un Plan de Igualdad y un Código Ético que garantizan el desarrollo profesional de la plantilla y la igualdad de oportunidades en su selección dentro de un entorno libre de discriminación por cuestión de etnia, nacionalidad, origen social, edad, orientación sexual, expresión de género, religión o cualquier otra circunstancia personal, física o social. ¿Qué te gustará de trabajar aquí? Tenemos un catálogo de medidas de Desarrollo y Conciliación muy completo, como son, por ejemplo: Un ambiente de trabajo único muy valorado por nuestros profesionales en las evaluaciones periódicas. - Wellbeing HUB - Incluye políticas y acciones para la salud física (Wellhub) y mental. - 24 días de vacaciones + 2 asuntos propios + 24 y 31 de diciembre + opción a comprar hasta 7 días de vacaciones al año. - FlexAbroad: posibilidad de trabajar en remoto desde otro país durante 45 días. - Plan de Compensación Flexible (seguro médico, transporte, formación, tarjeta restaurante o subvención de comida, guardería...) - Formación continua, podrás disfrutar de Mylearning y de Capgemini University y de nuestros Campus Digitales y Comunidades profesionales. Tendrás acceso a plataformas como: Coursera, Udemy, Pluralsight, Harvard Manager Mentor, Education First para idiomas (inglés francés, alemán...) ¡entre otras! - Participación en Acciones de Voluntariado y Acción Social con nuestros Grupos de Sostenibilidad, Inclusión e Igualdad. - Acompañamiento en tus inicios con el programa de Buddies. - Seguro de Vida y Accidentes ¿Por qué Capgemini? Capgemini es líder global en transformando los negocios de los clientes aprovechando todo el poder de la tecnología. Nos guía el propósito de lograr un futuro inclusivo y sostenible a través de la tecnología y de la energía de quienes la desarrollamos. Somos una compañía responsable y diversa, líder internacional en servicios de IT e Ingeniería con más de 360.000 profesionales en más de 50 países. Con una sólida herencia de 55 años y una amplia experiencia en la industria, los clientes confían en Capgemini para abordar la totalidad de sus necesidades comerciales, desde la estrategia y el diseño hasta las operaciones, impulsadas por el rápido y novedoso mundo de la nube, los datos, la IA, la conectividad, el software, las plataformas e ingeniería digitales. El Grupo reportó en 2022 ingresos globales de EUR22 mil millones. Reescribe tu futuro. ¡Únete al equipo! www.capgemini.com/es-es
-
04/10/2025
Madrid
Aplican únicamente personas que viven en España Requisitos: Experiencia: Mínimo 3 años de experiencia en programación. Conocimientos imprescindibles: Programación en Spark y Python (PySpark). Conocimiento sólido de Google Cloud Platform (GCP). Experiencia práctica con herramientas de desarrollo como: GIT Maven Jenkins Artifactory SonarQube Conocimientos deseables: Familiaridad con Amazon Web Services (AWS). Beneficios de ser un Yellower 🐝 Contrato indefinido Modalidad 100% Remoto Incorporación inmediata. Rango salarial 27 K 23 días de vacaciones hábiles por año laborado Apiux Academy: Formación, entrenamientos técnicos e interacción con la comunidad tech para desarrollar tu talento al máximo. Clases de inglés Profesor de inglés 24/7. Día de tu cumpleaños libre. Bonos por nacimiento, matrimonio y referidos. Happy Points: Un sistema de puntos que puedes canjear por días libres. Proyectos de larga duración y en algunos casos internacionales. Y-Share: ¡Sé dueño de una parte de la compañía uniéndose a nuestro programa! En Apiux nos identificamos como una fábrica de talento con fuerte orientación al negocio donde continuamente se brindan espacios a las nuevas generaciones para mostrar y desarrollar ideas, conocimientos, y exponer modelos de negocios innovadores enfocados en cubrir siempre con una propuesta de valor, las necesidades de nuestros clientes. ¿Qué hacemos? Posicionamos el mejor talento, dando un enfoque estratégico y nos esforzamos por entender a cabalidad la cultura y valores de cada uno de nuestros clientes con el fin de hacer el match perfecto entre cliente y talento. Velamos además por brindar una candidate experience y Employee experience ejemplar para nuestros futuros yellowers.🤟🚀 Ser un Yellower, significa pertenecer a una familia con principios integrales donde el espíritu ágil, colaborador, innovador y deportivo, son el combustible que día tras día le inyectamos a nuestro corazón para cada vez hacer las cosas mejor.💛 ¿Quieres ser un Yellower e impactar el futuro con la Tecnología y tu Talento? ¡Esperamos tu postulación!
-
23/10/2025
Madrid
Description: ¿Te apasiona resolver incidencias complejas y diseñar soluciones de datos que impactan en producción? Únete a un equipo dinámico donde podrás combinar tu conocimiento técnico con la mejora continua y la calidad del dato. Qué harás Analizar y diagnosticar incidencias derivadas de los sistemas de datos. Diseñar y desarrollar soluciones para resolver problemas detectados. Verificar el correcto funcionamiento de las soluciones implementadas. Supervisar los despliegues en entornos productivos. Documentar procesos, incidencias y soluciones. Colaborar con equipos de desarrollo, operaciones y negocio para garantizar la calidad y disponibilidad del dato. Imprescindible 3-5 años de experiencia como Data Engineer o similar. Conocimiento experto en Snowflake. Programación en Python o Java para desarrollo de pipelines. Experiencia con Azure App Service y Azure Synapse Studio. Uso de Azure DevOps para orquestación y despliegues. Experiencia con MongoDB y Delta Lake (arquitecturas Lakehouse). Deseable Experiencia en arquitecturas de datos distribuidas y streaming (Kafka, Spark). Conocimientos en monitorización y observabilidad (Datadog, Grafana). Nociones de Data Governance y seguridad en cloud. Familiaridad con CI/CD para entornos de datos. Inglés medio. ¿Qué es lo que le ofrecemos? Salario competitivo en función de la experiencia Contrato indefinido u Opción de Contrato Mercantil 22 días laborables de vacaciones Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte Formación en Tecnología y Soft Skills Programa de referidos: 500 EUR por candidatos recomendados que se incorporen con nosotros Condiciones Contrato: Indefinido Modalidad: Híbrido (2-3 días oficina - zona Atocha, Madrid) Inicio: Inmediato Duración: 1 año Horario: Lunes a jueves de 9:00 a 18:00 h, viernes de 8:00 a 15:00 h Verano: Jornada intensiva. Guardias: Sí, según calendario del proyecto. Salario: En función de la experiencia laboral: 30 - 36.000 EUR b/a Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Nos comprometemos estar a tu lado en todas las fases del proyecto, para asegurarnos que creces profesionalmente con nosotros, y que tu aportación cuenta. ¿Quieres estar al día con las últimas tecnologías y buscas nuevos desafíos? ¡Envíanos tu CV y nos ponemos en contacto contigo!
-
28/10/2025
Galicia, Andalusia, Valencian Community
Description: Únete a un equipo de ingeniería de datos especializado en genómica e investigación sanitaria, donde tus desarrollos impulsarán proyectos reales con impacto en la salud. Si te apasionan los datos complejos, los entornos regulados y las tecnologías punteras, este reto te va a motivar. La incorporación sería directa en la plantilla de uno de nuestros grandes clientes. Qué harás Diseñar y operar pipelines de ingestión e integración de datos complejos. Orquestar y monitorizar flujos con Apache NiFi y Airflow. Integrar múltiples fuentes (relacionales, NoSQL, APIs REST/GraphQL, Kafka, data lakes). Implementar trazabilidad, calidad y alertas en procesos ETL/ELT. Documentar modelos, procesos y APIs. Trabajar con datos genómicos y clínicos (FASTQ, BAM, VCF, registros clínicos) en entornos regulados. Imprescindible +3 años de experiencia en ingeniería de datos, integración y transformación. Experiencia práctica con Airflow y NiFi. Conocimiento en modelado de datos estructurados/semi-estructurados y Big Data (Hadoop, Spark). Experiencia con Kafka y sistemas de mensajería. Conocimientos de seguridad, calidad de datos y GDPR. Residencia en Reus, Granada, Sevilla, Málaga, A Coruña o Valencia. Deseable Experiencia con Infraestructura como Código (Terraform, Helm). Familiaridad con CI/CD (GitLab CI/CD, Jenkins). Experiencia en proyectos de ciencia de datos o genómica. ¿Qué ofrecemos? Ambiente de trabajo internacional, positivo, dinámico y motivado. Modelo de trabajo híbrido (teletrabajo/presencial). Horario flexible. Formación continua: Preparación certificaciones, acceso a Coursera, clases semanales de inglés y alemán... Plan de compensación flexible: seguro médico, tickets restaurante, guardería, ayudas al transporte... Seguro de vida y accidentes. Más de 26 días laborables de vacaciones al año. Fondo social. Servicio gratuito en especialistas (médicos, fisioterapeutas, nutricionistas, psicólogos, abogados...) 100% del salario en caso de baja médica Condiciones Contrato: Indefinido Modalidad: Híbrida (oficinas en Reus, Granada, Sevilla, Málaga, A Coruña o Valencia) Ubicación: Cualquiera de las anteriores ciudades Horario: Jornada completa, horario flexible Salario: En función de la experiencia. 45 - 50.000 EUR b/a. Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Nos comprometemos estar a tu lado en todas las fases del proyecto, para asegurarnos que creces profesionalmente con nosotros, y que tu aportación cuenta. ¿Quieres estar al día con las últimas tecnologías y buscas nuevos desafíos? ¡Envíanos tu CV y nos ponemos en contacto contigo!
-
03/11/2025
Madrid
Description: Desde Grupo Digital, buscamos un/a Data Engineer / Data Architect para trabajar con uno de nuestros grandes clientes. Funciones: 60-70% tareas de Ingeniería de Datos 30-40% tareas de Arquitectura de Datos Migración de la Arquitectura. Soporte a los Data Engineers. Requisitos: Azure Data Factory Azure Databricks Azure Storage Azure DevOps Pipelines para CI/CD Python SQL Server Conocimientos de: Arquitecturas Medallion Modelado Kimball PowerBI Requisitos deseables: Kafka Debezium ¿Qué es lo que le ofrecemos? Salario competitivo en función de la experiencia Contrato indefinido u Opción de Contrato Mercantil 22 días laborables de vacaciones Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte Formación en Tecnología y Soft Skills Programa de referidos: 500 EUR por candidatos recomendados que se incorporen con nosotros Condiciones Laborales: Lugar de trabajo: Madrid. Modalidad: Remoto. Salario: 40 - 50.000EUR brutos anuales (según experiencia). Grupo Digital Somos un equipo de más de 100 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de Inteligencia Artificial, Cloud, Ciberseguridad, etc.... Nos comprometemos estar a tu lado en todas las fases del proyecto, para asegurarnos que creces profesionalmente con nosotros, y que tu aportación cuenta. ¿Quieres estar al día con las últimas tecnologías y buscas nuevos desafíos? ¡Envíanos tu CV y nos ponemos en contacto contigo!
-
13/10/2025
Catalonia
Description: Consultor/a Funcional Maximo - Remoto 100 % Quieres formar parte de un proyecto de largo recorrido en el ámbito público, trabajando con IBM MAXIMO en un entorno estable y con alto impacto operativo. En GP DIGITAL buscamos un Consultor senior de MX en módulos de Logística y Compras Qué harás Actuar como consultor/a funcional de Maximo en la parte logística. Acompañar al cliente en la definición de procesos y requerimientos. Configurar la herramienta y diseñar pantallas y funcionalidades. Validar flujos parametrizados y preparar planes de prueba. Documentar los procesos y coordinar tareas con equipos técnicos. Requisitos Imprescindibles 4 años de experiencia como consultor/a senior en módulos de Logística y Compras de Maximo. Conocimiento de Maximo Integration Framework (MIF). Experiencia en Testing y SQL/Python. Conocimientos en informes BIRT y carga de datos. Capacidad de interlocución directa con el cliente. Habilidad de documentación, escalado y seguimiento de incidencias. Competencias de liderazgo y mejora continua. Deseable Conocimientos del sector público Familiaridad con el módulo de Transporte (gestión de flotas). Nivel medio de INGLES Nivel medio de catalán. ¿Qué es lo que le ofrecemos? Salario competitivo en función de la experiencia aportada Contrato indefinido u Opción de Contrato Mercantil 22 días laborables de vacaciones Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte Formación en Tecnología y Soft Skills Programa de referidos: 500 EUR por candidatos recomendados que se incorporen con nosotros Condiciones Contrato: Indefinido Modalidad: Remoto 100 % >> viajes puntuales a cliente en España Lugar de trabajo: Barcelona / Reus / Madrid (posible presencial puntual) Horario: Jornada completa en cuanto a nosotros ... Grupo Digital Somos un equipo de más de 150 profesionales tecnológicos, en el que encontraras proyectos estables, en los principales clientes nacionales e internacionales, desarrollando soluciones de desarrollo aplicaciones, arquitectura de sistemas, Inteligencia Artificial, Cloud, Ciberseguridad, Big Data etc.. amplia informacion en nuestra web www.grupodigital.eu Minimum requirements: #IBM MAXIMO
-
10/09/2025
Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular
Desarrollador/a Senior Python En Rawson BPO trabajamos para impulsar tu carrera profesional proponiéndote nuevos retos. Trabajarás con las tecnologías más vanguardistas tanto en proyectos nacionales e internacionales. ¿Qué buscamos? Un perfil senior de desarrollo en Python con experiencia específica en el sector financiero/bancario Requisitos imprescindibles: +5 años de experiencia en desarrollo con Python. Experiencia previa en el sector financiero / bancario / fintech. Dominio de frameworks como Django, Flask o FastAPI, así como APIs RESTful y arquitecturas de microservicios. Conocimiento en bases de datos SQL (PostgreSQL, MySQL) y NoSQL (MongoDB, Redis). Experiencia con Cloud (AWS, Azure o GCP), CI/CD y contenedores (Docker/Kubernetes). Inglés C1 (imprescindible para colaborar en proyecto de EEUU). ¿Qué te ofrecemos? Contrato Indefinido Salario competente y revisable Formación continua IT e Idiomas Retribución flexible Modalidad de trabajo: REMOTO ¡Si estás buscando una empresa dónde valores el trato personalizado esta es la tuya!
-
05/09/2025
Catalonia
Porque trabajar en Sopra Steria, también es sentir Sopra Steria. Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España. Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente. Tenemos pasión por lo digital y, al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo. Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo! Buscamos un/a Ingeniero de Datos Senior para integrarse en un equipo de ciberseguridad de la administración pública. Tu misión será velar por el cumplimiento de estándares e impulsar la mejora continua y colaborar con equipos especializados en Data e Inteligencia Artificial para fortalecer las capacidades de análisis predictivo y automatización en el ámbito de la ciberseguridad. Responsabilidades y funciones: Diseñar y construir la arquitectura de datos end-to-end, desde la ingesta hasta la capa de consumo, implementando el patrón Medallion (Bronze, Silver, Gold). Desarrollar pipelines de datos robustos y escalables en tiempo real (streaming) y por lotes (batch), utilizando principalmente Azure Databricks (PySpark) y Microsoft Fabric. Implementar el modelo de datos dimensional en la capa Gold para optimizar el consumo por parte de los modelos de IA y los dashboards de Power BI. Garantizar la calidad, gobernanza y linaje de los datos a lo largo de todo el proceso, implementando validaciones automatizadas (DataOps). Colaborar estrechamente con los equipos de Ciencia de Datos y Ciberseguridad para asegurar que la arquitectura de datos cumpla con sus necesidades. Requisitos Sólida experiencia en el ecosistema de datos de Microsoft Azure. Dominio de Azure Databricks (PySpark, Structured Streaming). Experiencia con Azure Data Lake Storage Gen2 y Microsoft Fabric (Data Factory). Experiencia demostrable implementando arquitecturas Lakehouse y el patrón Medallion. Nivel experto en Python y SQL para la transformación de datos a gran escala. Experiencia en Implementación de streaming en plataformas Microsoft / Databricks Exp - 5 años en construcción de pipelines y pyspark Catalán y Castellano ¿Qué tenemos para ti? Contrato indefinido y jornada completa. 23 días de vacaciones al año. Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más! Seguro de vida y de accidentes. Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guardería, transporte, comida y formación). Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas. Onboarding personalizado: te acompañamos en todo momento para que te sientas #soprano desde el primer día. Oficinas con espacios reservados al ocio. ¡Trabajo y diversión unidos! Compañerismo y buen ambiente, el poder de la unión lo tenemos presente. Y lo más importante... la posibilidad de desarrollar tu carrera profesional con nosotros: crearemos juntos un plan de carrera personalizado, con objetivos claros, seguimiento y formación. ¡Aquí tu voz importa! Únete a nosotros y sé parte de algo más. The world is how we shape it. �� Adquirimos el compromiso de respetar la diversidad, creando un ambiente de trabajo inclusivo y aplicando políticas que favorezcan la inclusión y promuevan el respeto social y cultural en cuestiones de género, edad, funcional, orientación sexual y religión con igualdad de oportunidades.
-
07/10/2025
Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular
Requisitos mínimos Perfil / Experiencia: Experiencia como Data Engineer con Entornos Google Cloud - GCP. (Al menos 1, 2 o 3 años y/o en Adelante demostrables en este tipo de funciones). Necesario al menos una certificación relacionada con ámbito GCP Descripción Buscamos perfil de Ingeniero del Dato con mínimo alguna Certificacion/es de Google Cloud. Proyecto inicialmente temporal para 4 meses con posibilidades de continuidad posterior, pero garantizados esos 4 meses. Condiciones base: 100% Teletrabajo y horario de oficina con flexibilidad y posibilidad de jornada intensiva en Viernes. Contratación por nosotros, Sandav Consultores durante los primeros 4 meses y con esa posibilidad de que la compañía cliente opte por contratarte / internalizarte en su plantilla. Bandas Salariales abiertas y acordes a expectativas del perfil y condiciones de mercado. Funciones / Tecnologías a contemplar: Ingesta y almacenamiento de datos: BigQuery e integración con Cloud Storage Procesamiento de Datos: Dataform y Arquitectura Medallion (bronze, silver, gold). Integración con IA (Vertex AI), conectar entornos, automatizar inferencias dentro de pipelines o microservicios. Despliegue y automatización: Google Run / Cloud Functions, Cloud Scheduler y programaciones, IAM & Service Accounts... Automatización y Orquestación completa: pipelines end-to-end, Python, Airflow etc... ¿Quieres trabajar en una empresa en la que sabemos cómo te llamas, nos preocupamos por tu bienestar y cuando necesitas algo te atendemos al momento? SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com