La oferta de trabajo Data Engineer (Cloud / Azure Data). Madrid (Teletrabajo Mixto) ya no está disponible

Aquí tienes ofertas de trabajo similares:

  • 11/09/2024

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    Buscamos perfiles de Ingenieros Data Sr en diferentes vertientes / funciones: (Arquitecto, Big Data Senior...). Experiencia de 3 años y en adelante en mundo del dato. Se trata de conformar un nuevo equipo (desde cero), de unas 5 o 6 personas, y requerimos perfiles Senior que entre ellos puedan aportar esas diferentes capacidades o roles (siempre proviniendo de deriva técnica del Dato). Buscamos profesional del ecosistema, para o bien Liderar o colaborar como Técnico con procesos tipo ETL (Spark, Python o Scala... o afines en B.I.), o de Gobierno de Dato o Arquitectura del dato, para obtener un tratamiento de datos de capas operativas como SAP, Maximo u Oracle, así como todo el proceso de preparar los datos y entregar a los correspondientes Datawarehouse o Data Lake. (Proceso completo). Proyectos Internacionales, se requiere buen nivel de inglés asimilable a C1 o con capacidad de trabajar inclusive de manera prácticamente íntegra en el idioma y con equipos internacionales de hecho. Condiciones Base: Contrato indefinido. Contratación por Nosotros en prestación de servicios para empresa Cliente con proyectos / servicios a nivel internacional. Sector Logístico. Modalidad de Teletrabajo Total. Necesario residentes en España. Horarios habituales de oficina con posibilidades habituales de flexibilidad de horario de entrada y salida. Banda Salarial abierta 38.000-55.000EUR/ B. Anuales, o incluso en caso de justificarlo adecuadamente quizás hasta 60.000 B Anuales (Aproximadamente). Flexibles (siempre abiertos a negociar y adaptarnos a vuestras pretensiones). Perfil / Funciones - Cuestiones interesantes para el servicio: Experiencia de base de Ingeniería del dato como condición prácticamente indispensable: (Experiencia de tres (3) años y en adelante en mundo del dato). Experiencia en trabajo de procesos ETL (Spark, Python o Scala... o afines en B.I o similares). Muy de valorar experiencia con Azure, Azure Data Factory. Muy de valorar conocimientos de fuentes diferentes (Oracle, SAP...), y así como de tecnologías ETL como por ejemplo Powercenter o afines. Otros valorables que aportarían al equipo (Funciones que también podrían acometerse): En definitiva: tanto cuestiones de Gobierno del Dato, como cuestiones tipo DataOPs, CI/CD y automatizaciones a tal efecto, trabajo con fuentes de API´s de terceros, conocimiento de cuestiones de Data Analytics como por ejemplo cuestiones de conocimientos en Modelos Semánticos Etc... Para más información: sandavteam.com

  • 06/09/2024

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    Desde Sandav estamos conformando un equipo DATA para un proyecto que inicia tras finalizar el verano. Por ahora nos falta concretar varios detalles, pero me gustaría presentarte la propuesta en líneas generales y ver si te puede interesar participar en el proceso. Entre los diversos perfiles, ahora mismo estamos precisando un profesional para un rol como Data Architect/Jefe de Proyecto. El cliente es líder en logística, comprometido con la innovación y la excelencia operativa. Sus operaciones dependen de sólidas capacidades de análisis y datos. El proyecto que inicia esta compañía tiene como objetivo dar soporte a la nueva Data and Analytics Office (DAO) y en la gobernanza de datos de esta compañía, enfocando los servicios de soporte en todas sus actividades de negocio. Funciones: Actuar como contacto técnico para las empresas que le suministran plataformas y soluciones de datos. Transmitir las necesidades y expectativas técnicas a los proveedores de plataformas de datos. Asegurarse de que las características de la plataforma coincidan con los requisitos de negocio. Diseño de modelos de datos. Desarrollo de bases de datos. Saber qué tecnologías va a usar y cómo va a hacerlo. Seleccionar los almacenes de datos y las fuentes de los mismos. Gestión del flujo de trabajo o workflow. Encargado y principal responsable de que las tres fases de los procesos ETL Auditorías de datos Se ofrece: Contrato indefinido Buen clima laboral Modalidad teletrabajo o hibrido en Madrid Horario de oficina lunes-jueves (en principio de08-17:15h) y viernes y verano intensiva Banda Salarial abierta, (siempre abiertos a negociar y adaptarnos a vuestras pretensiones) ¿Quieres trabajar en una empresa en la que sabemos cómo te llamas, nos preocupamos por tu bienestar y cuando necesitas algo te atendemos al momento? SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, que en resumen quiere decir que CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com

  • 22/08/2024

    Madrid

    Buscamos perfil de Ingeniero Data (Experiencia de 3 años y en adelante en mundo del dato). Buscamos profesional del ecosistema, para o bien Liderar o bien colaborar como Técnico en un equipo en trabajo de procesos ETL (Spark, Python o Scala... o afines), para obtener datos de capas operativas como SAP, Maximo u Oracle, así como todo el proceso de preparar los datos y entregar a los correspondientes Datawarehouse o Data Lake. (Proceso completo). Proyectos Internacionales, se requiere buen nivel de inglés asimilable a C1 o con capacidad de trabajar inclusive de manera prácticamente íntegra en el idioma y con equipos internacionales de hecho. Condiciones Base: Contrato indefinido. Contratación por Nosotros en prestación de servicios para empresa Cliente con proyectos / servicios a nivel internacional Modalidad inicial: híbrido en Madrid, con buenas posibilidades de ampliar bastante hacia encaminarnos a un formato de teletrabajo bastante completo, pero interesante disponibilidad para formato híbrido. Horarios habituales de oficina con posibilidades habituales de flexibilidad de horario de entrada y salida. Banda Salarial abierta 38.000-50.000EUR B Anuales (Aproximadamente). Flexibles (siempre abiertos a negociar y adaptarnos a vuestras pretensiones). Perfil / Funciones: Buscamos perfil de Ingeniero Data (Experiencia de 3 años y en adelante en mundo del dato). Experiencia en trabajo de procesos ETL (Spark, Python o Scala... o afines). Muy de valorar experiencia con Azure, Azure Data Factory. Muy de valorar conocimientos de fuentes diferentes (Oracle, SAP...), y así como de tencologías ETL como por ejemplo Powercenter o afines. Otros valorables que aportarían al equipo (Funciones que también podrían acometerse): Cuestiones de Gobierno del Dato, cuestiones tipo DataOPs, CI/CD y automatizaciones a tal efecto, trabajo con fuentes de API´s de terceros, conocimiento de cuestiones de Data Analytics como por ejemplo cuestiones de conocimientos en Modelos Semánticos Etc... ¿Quieres trabajar en una empresa en la que sabemos cómo te llamas, nos preocupamos por tu bienestar y cuando necesitas algo te atendemos al momento? SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, que en resumen quiere decir que CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com

  • 23/09/2024

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    Desde CMV Consultores te brindamos las mejores oportunidades, en importantes clientes. Seleccionamos a 1 Senior Data Engineer cloud GCP Requisitos: Perfil Senior Data Engineer con experiencia de más de 2 años trabajando en el cloud GCP. Best Practises Experiencia en el desarrollo de pipelines y transformaciones de datos (ETLs) con Bigquery. Ideal experiencia con SQL Server y Talend para ingestas. Buen nivel de SQL Buen nivel de Python Idiomas: Inglés B2 mínimo. Teletrabajo:100%

  • 05/09/2024

    Madrid, Otro

    Desde Sandav Consultores estamos en búsqueda de un Data Engineer para cliente ubicado en Madrid (zona de Arganzuela) con modalidad híbrida de trabajo (un mes se trabajará 2 días de manera presencial y 3 días de teletrabajo a la semana) y otro mes 100% remoto. Y así sucesivamente meses alternos. Desarrollo de Modelado de Datos y Pipelines con Spark y Scala para ingesta y transformación. datos de diferentes fuentes (temas de Kafka, API, HDFS, bases de datos estructuradas, archivos) en Le siguen HDFS, IBM Cloud Storage (generalmente en formato parquet) o bases de datos SQL/NOSQL. Gestionar soluciones de almacenamiento de big data en la plataforma (HDFS, IBM Cloud Storage, estructurado y bases de datos no estructuradas) Transformación y Calidad de Datos: implementar transformación de datos y control de calidad. procesos para garantizar la coherencia y precisión de los datos. Utilizar lenguajes de programación como Scala y SQL. Y bibliotecas como Spark para operaciones de enriquecimiento y transformación de datos. Implementación de canales de CI/CD: configurar canales de CI/CD para automatizar la implementación, unidad pruebas y gestión del desarrollo. Migración de infraestructura: migrar la infraestructura de Hadoop existente a la infraestructura de nube en Kubernetes Engine, Object Storage (almacenamiento en la nube de IBM), Spark como servicio en Scala (para construir las canalizaciones de datos) y Airflow como servicio (para orquestar y programar los datos tuberías) Implementación de esquemas, consultas y vistas en bases de datos SQL/NoSQL como Oracle, Postgres o MongoDB Desarrollar y configurar la programación de canalizaciones de datos con una combinación de scripts de shell. y AirFlow como servicio Pruebas de validación: realizar pruebas unitarias y de validación para garantizar la precisión y la integridad. Documentación: redactar documentación técnica (especificaciones, documentos operativos) para asegurar la capitalización del conocimiento. Requisitos mínimos -Spark en Scala como lenguaje de desarrollo de canalización de datos heredado - Spark como servicio en Scala como plataforma de desarrollo de canales de datos - Experiencia en el diseño y desarrollo de procesos de streaming utilizando Spark Streaming, - Transmisión de estructura Spark y Apache Kafka - Gestión de soluciones heredadas de almacenamiento de big data (HDFS) - Gestión de soluciones de almacenamiento de big data (IBM Cloud Object Storage y formato parquet) - Implementación de esquemas, consultas y vistas de bases de datos SQL/NO SQL (MongoDB, Oracle, Postgres) - Shell scripting y Airflow como solución de programación de canalización de datos - Dremio como herramienta de virtualización de datos - Dataiku como herramienta de preparación de datos como bonificación - Inglés nivel alto (B2-C1). Requisitos deseados Se valora positivamente si se tiene Francés.

  • 24/09/2024

    Madrid

    Trabajarás como Data Scientist en un proyecto de machine learning en la creación de un asistente de Inteligencia Artificial Generativa y en entorno cloud. ¿Cómo será tu día a día? Generación de código en Python y sus bibliotecas de ciencia de datos y Apache Spark, Desarrollo de pipelines, optimización de jobs, etc. Desarrollo de modelos de machine learning y evaluación de estos. Servicios de AWS relacionados con ML (por ejemplo, SageMaker, Lambda, Athena, EC2, S3, RDS). Despliegue y monitoreo de modelos de aprendizaje automático escalables en producción. ¿Qué te hará triunfar en la posición? 2-3 años de experiencia como Data Scientist con modelos de Machine Learning. Experiencia trabajando con Python y sus bibliotecas de ciencia de datos (por ejemplo, pandas, NumPy, scikit-learn, TensorFlow, PyTorch) y Apache Spark, desarrollo de pipelines, optimización de jobs, Spark ui, etc. Experiencia generando código de alta calidad, centrándose en la simplicidad, la reutilización, el rendimiento y la mantenibilidad. Experiencia extensa con servicios de AWS relacionados con ML (por ejemplo, SageMaker, Lambda, Athena, EC2, S3, RDS). Sólido entendimiento de los algoritmos de Machine Learning, principios y métricas de evaluación de modelos. Experiencia en despliegue y monitoreo de modelos de aprendizaje automático escalables en producción. Experiencia con herramientas CI/CD y mejores prácticas de DevOps. Experiencia Test Driven Development. Unit Testing, Integration Testing, etc. Competencia en bases de datos relacionales y object storage DataBase. Habilidad en migraciones de bases de datos para asegurar una transición eficiente y sin inconvenientes. Deseable experiencia en proyectos de Gen AI. Deseable experiencia con la plataforma en la nube Amazon Web Services. Deseable experiencia en desarrollo y despliegue de agentes/asistentes de Inteligencia Artificial Generativa. ¿Quiénes somos? Somos una empresa líder en el sector tecnológico, con 20 años de experiencia y más de 500 profesionales repartidos en España, México, Cololombia y Perú. En Zemsania, nos apasiona la innovación y el desarrollo de soluciones tecnológicas que impacten de manera positiva a nuestros clientes. ¿Por qué trabajar con nosotros? En Zemsania, valoramos el talento y la pasión por la tecnología. Ofrecemos un ambiente de trabajo dinámico, colaborativo y lleno de oportunidades de crecimiento y desarrollo profesional. ¡Si buscas un lugar donde tus habilidades sean valoradas y donde puedas seguir aprendiendo, Zemsania es el lugar para ti! ¿Qué ofrecemos? Modalidad de trabajo híbrido, inicialmente 1-2 días en las oficinas de Las Tablas, después flexible. Horario: 9 horas de L-J y 7 horas los viernes; julio y agosto jornada intensiva de 7 horas todos los días. Posición estable, indefinida y de larga duración. Salario competitivo según la experiencia y lo que puedas aportar al proyecto. Oportunidades de formación en tecnologías punteras (Open Webinars). Clases de inglés con diferentes niveles, adaptadas a ti. Certificaciones pagadas en las últimas tendencias. Amplio abanico de retos y proyectos. Acceso a beneficios fiscales gracias a nuestro plan de Retribución Flexible (ticket restaurante, transporte, guardería y formación). Finalizar el contrato siempre es la última opción, buscamos entre la multitud de proyectos que tenemos otro que pueda interesarte. Seguimiento personalizado gracias al acompañamiento de nuestra figura de People Partner y un Business Manager. Trato cercano y seguimiento: vas a estar en constante comunicación con nosotros para saber cómo avanza el proyecto. ¡DA EL PASO PARA COMENZAR TU NUEVA ETAPA PROFESIONAL!

  • 02/09/2024

    Madrid

    Porque trabajar en Sopra Steria, también es sentir Sopra Steria Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España. Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente. Tenemos pasión por lo digital y al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo. Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo! ¿Qué reto proponemos? Nos gustaría incorporar a un par de personas con experiencia como Data Engineer y con experiencia en PySpark y SQL para colaborar en importante proyecto del sector seguros. ¿Qué buscamos? Al menos 2 - 3 años de experiencia como Data Engineer Muy valorable experiencia con Palantir Foundry Experiencia con Pyspark/Scala y/o Python Experiencia con SQL/MySQL Valorable conocimientos en Tableau, Denodo, PowerBI, Data bricks ¿Qué tenemos para ti? Contrato indefinido y jornada completa. 23 días de vacaciones. Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más! Seguro de vida y de accidentes Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación) Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas Onboarding personalizado y detallado. Te acompañamos en todo momento para que te sientas #soprano desde el primer momento. Oficina con espacios reservados al ocio. ¡Trabajo y diversión unido! Compañerismo y buen ambiente, el poder de la unión lo tenemos presente. Salario negociable en función de las expectativas y experiencia. Horario 09:00 a 18:00, jornada intensiva en verano Modalidad híbrida de teletrabajo en Madrid (40% - 60%) Y lo más importante...Tienes la posibilidad de desarrollar tu carrera profesional con nosotros: Crearemos juntos un plan de carrera personalizado. Te formarás, marcaremos objetivos y llevaremos a cabo un seguimiento para asegurarnos de que lo conseguimos juntos. Escuchamos tus prioridades y luchamos por ellas. ¡Aquí tu voz importa! ¡Únete a nosotros y sé parte de algo más! The world is how we shape it

  • 04/09/2024

    Galicia

    Sobre el área de tecnología Te unirás al equipo de Seguridad & Privacidad, donde tendrás la oportunidad de trabajar en proyectos de investigación, desarrollo e innovación relacionados con la ciberseguridad. Estamos buscando un profesional con experiencia en el desarrollo de pipelines de datos escalables y distribuidos para entrenar algoritmos de Inteligencia Artificial, con el objetivo de abordar problemas del mundo real mediante el uso de tecnologías de análisis de datos y Big Data. Serás parte de varios proyectos de ciberseguridad, colaborando estrechamente con organizaciones líderes en este ámbito. Te integrarás en un equipo dinámico y experimentado, especializado en el análisis de datos, la arquitectura para el procesamiento de grandes volúmenes de información, y la creación de herramientas de visualización orientadas a la interpretación de datos en el contexto de la ciberseguridad. Tus responsabilidades En tu día a día, te encargarás de: Introducir y liderar la implementación de tecnologías Big Data para mejorar la eficiencia y el rendimiento de los sistemas de procesamiento de datos. Diseñar e implementar pipelines de procesamiento de datos que faciliten el entrenamiento de modelos de Machine Learning, tanto en flujos de datos en tiempo real como en procesos por lotes. Aplicar y adaptar tecnologías avanzadas de Machine Learning y análisis de comportamiento de usuarios y entidades (User and Entity Behaviour Analytics) al ámbito de la ciberseguridad. Tu labor será crucial para asegurar la calidad del producto y del proceso, así como para contribuir al crecimiento del área de Seguridad & Privacidad a través de iniciativas estratégicas. Lo que estamos buscando Más de 3 años de experiencia práctica en programación (preferiblemente Python) y en la creación de pipelines de procesamiento de datos batch y/o streaming (idealmente con Spark), así como en la implementación de herramientas Big Data. Pasión por las tecnologías emergentes y la resolución de problemas complejos, con ganas de proponer ideas innovadoras. Interés en el aprendizaje continuo y disposición a asumir nuevos desafíos. Excelentes habilidades de comunicación y capacidad para trabajar con equipos internos, externos, clientes y socios. Competencia en inglés, dado que trabajamos en un entorno internacional. Se valorará tener un Grado en Ingeniería en Telecomunicaciones, Informática o estudios afines. Será un plus si cuentas con: Conocimiento del stack ELK, Spark, Scala, Splunk u otras herramientas de análisis de datos. Formación en Técnicas Estadísticas, Big Data o campos relacionados. Qué te ofrecemos Salario: entre 28.000EUR y 30.000EUR FBA + un 10% variable basado en tus conocimientos, experiencia y actitud. 26 días de vacaciones al año Un viernes libre al mes para que disfrutes de un fin de semana largo. Flexibilidad para teletrabajar o trabajar en la oficina, según acuerdes con tu equipo. Un presupuesto anual para formación personal, destinado a mejorar tus habilidades técnicas y de liderazgo. Todo el equipo necesario para que puedas trabajar cómodamente desde donde elijas. Retribución flexible, con opciones como cheques restaurante, guardería, transporte y seguro médico. Un fuerte compromiso con la conciliación entre la vida laboral y personal. Acceso a un club de descuentos corporativos. Posibilidad de recibir clases de inglés si tu rol lo requiere.

  • 17/09/2024

    Madrid, Otro

    Desde Sandav Consultores estamos en búsqueda de un Data Engineer para cliente ubicado en Madrid (zona de Arganzuela) con modalidad híbrida de trabajo (un mes se trabajará 2 días de manera presencial y 3 días de teletrabajo a la semana) y otro mes 100% remoto. Y así sucesivamente meses alternos. Desarrollo de Modelado de Datos y Pipelines con Spark y Scala para ingesta y transformación. datos de diferentes fuentes (temas de Kafka, API, HDFS, bases de datos estructuradas, archivos) en Le siguen HDFS, IBM Cloud Storage (generalmente en formato parquet) o bases de datos SQL/NOSQL. Gestionar soluciones de almacenamiento de big data en la plataforma (HDFS, IBM Cloud Storage, estructurado y bases de datos no estructuradas) Transformación y Calidad de Datos: implementar transformación de datos y control de calidad. procesos para garantizar la coherencia y precisión de los datos. Utilizar lenguajes de programación como Scala y SQL. Y bibliotecas como Spark para operaciones de enriquecimiento y transformación de datos. Implementación de canales de CI/CD: configurar canales de CI/CD para automatizar la implementación, unidad pruebas y gestión del desarrollo. Migración de infraestructura: migrar la infraestructura de Hadoop existente a la infraestructura de nube en Kubernetes Engine, Object Storage (almacenamiento en la nube de IBM), Spark como servicio en Scala (para construir las canalizaciones de datos) y Airflow como servicio (para orquestar y programar los datos tuberías) Implementación de esquemas, consultas y vistas en bases de datos SQL/NOSQL como Oracle, Postgres o MongoDB Desarrollar y configurar la programación de canalizaciones de datos con una combinación de scripts de shell. y AirFlow como servicio Pruebas de validación: realizar pruebas unitarias y de validación para garantizar la precisión y la integridad. Documentación: redactar documentación técnica (especificaciones, documentos operativos) para asegurar la capitalización del conocimiento. Se ofrece: Proyecto estable. Contrato indefinido. Modalidad de trabajo: híbrida (un mes se trabajará 2 días de manera presencial y 3 días de teletrabajo a la semana) y otro mes 100% remoto. Y así sucesivamente meses alternos. Horario: Jornada completa de lunes-jueves (en principio de 09-18h) y viernes y verano intensiva Tienen flexibilidad total en cuanto a horario para entrar entre las 8-9h, 1 hora para comer y salir sobre las 17:30. Son 8,5 horas al día para acumular de cara a los días de jornadas intensivas. Salario: 39.000EUR - 41.000EUR / brutos anuales (en función de la experiencia aportada). Se valoran candidaturas por salarios superiores en función de la experiencia). Seguro médico opcional que incluye seguro dental y psicología y retribución flexible a nivel de tickets restaurante. Cursos de formación gratuita.

  • 13/08/2024

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana

    En Rawson BPO trabajamos para impulsar tu carrera profesional proponiéndote nuevos retos. Trabajarás con las tecnologías más vanguardistas tanto en proyectos nacionales e internacionales. Rol: Arquitecto/a Técnico de Arquitectura (Teletrabajo) ¿Qué te ofrecemos? Contrato Indefinido Salario competente y revisable Formación continua IT e Idiomas Retribución flexible Modalidad de trabajo/Teletrabajo ¿Qué buscamos? Alta comprensión de distintas tecnologías, incluyendo plataformas Cloud (Azure, AWS), bases de datos (Oracle, Postgres, Mongo entre otros), API y arquitecturas basadas en microservicios. Tres (3) años de Experiencia mínima en diseño de soluciones de arquitectura de negocio de software. Conocimientos y experiencia en diseño de Procesos/BPM (Appian, Camunda) Conocimientos de arquitectura basada en eventos (Kafka, Confluent) - Conocimientos de arquitectura basada en microservicios (basados en lenguaje Java, Node.js, Python) Conocimientos de arquitectura de datos (Databricks, Spark, Cloudera) Comprensión y capacidad de diseñar sistemas resilientes, de alta disponibilidad y cumpliendo con los estándares de seguridad necesarios Comprensión de metodologías ágiles (Scrum, Kanban) Conocimiento sobre diseño de arquitecturas de soluciones ¡Si estás buscando una empresa dónde valores el trato personalizado esta es la tuya!