The job offer Especialista Machine Learning (Híbrido) (Madrid) is not available any more

Here are some similar offers:

  • 04/10/2024

    Madrid

    Description: Desde Grupo Digital, estamos en búsqueda de un perfil Data Engineering. Resumen del Rol: Ingeniero de MLOps que pueda diseñar y mantener la infraestructura necesaria para entrenar y desplegar modelos de IA generativa y LLM en entornos de AWS y Azure. El/la candidato/la debe tener una experiencia sólida en automatización, despliegue continuo y optimización de pipelines de datos para modelos avanzados de IA. Requisitos: Experiencia en ingeniería de datos, MLOps o DevOps, con un enfoque reciente en IA generativa y LLM. Cloud Computing: Profunda experiencia en la construcción y gestión de infraestructuras de datos en AWS (SageMaker, EC2, EKS) y Azure (Machine Learning, Kubernetes Service, Data Factory). Automatización y CI/CD: Experiencia con herramientas de CI/CD como Jenkins, GitLab, y prácticas de infraestructura como código (IaC) con Terraform o CloudFormation. Optimización de Modelos: Habilidad para trabajar con equipos de Data Science en el ajuste fino de modelos LLM, optimización de rendimiento, y escalabilidad. Monitorización de Modelos: Experiencia en la creación de dashboards y sistemas de monitorización (CloudWatch, Grafana, Prometheus) para seguir el rendimiento de los modelos en producción. Data Engineering: Fuerte capacidad para trabajar con herramientas de procesamiento de datos masivos como Apache Spark, AWS Glue, y Kafka. Scripting y Automatización: Dominio en scripting (Bash, Python) para automatizar procesos de despliegue y mantenimiento de pipelines de IA. S Soft skills: proactividad, buena capacidad de comunicación y de presentación de resultados deseable, interés por el estado del arte en IA generativa y asistentes conversacionales Responsabilidades: Colaborar con equipos de ciencia de datos para diseñar infraestructuras optimizadas para el entrenamiento y la inferencia de modelos LLM en AWS y Azure. Desarrollar y automatizar pipelines de despliegue para modelos de IA generativa, asegurando alta disponibilidad y escalabilidad. Implementar soluciones de monitorización en tiempo real para capturar métricas clave de rendimiento y KPIs de los modelos en producción. Optimizar el costo y el rendimiento de los sistemas mediante la gestión eficiente de recursos en la nube y la integración de soluciones de autoscaling. Garantizar la seguridad y el cumplimiento de normativas en la gestión de datos y el despliegue de modelos en entornos de producción. Condiciones Laborales: Duración proyecto: Estable Ubicación: España. Imprescindible residir en territorio español. Banda salarial: Valorable en función de la experiencia aportada. SOBRE NOSOTROS Grupo Digital Somos un grupo de empresas tecnológicas, formado actualmente por unos 200 profesionales, en distintas áreas: desarrollo, sistemas, ingeniería automática, consultoría... Si quieres impulsar tu carrera con un proyecto único de la mano de una multinacional de primerísimo nivel, no dudes en presentar tu candidatura. ¡Te esperamos!

  • 17/09/2024

    Madrid, Other

    Desde Sandav Consultores estamos en búsqueda de un Data Engineer para cliente ubicado en Madrid (zona de Arganzuela) con modalidad híbrida de trabajo (un mes se trabajará 2 días de manera presencial y 3 días de teletrabajo a la semana) y otro mes 100% remoto. Y así sucesivamente meses alternos. Desarrollo de Modelado de Datos y Pipelines con Spark y Scala para ingesta y transformación. datos de diferentes fuentes (temas de Kafka, API, HDFS, bases de datos estructuradas, archivos) en Le siguen HDFS, IBM Cloud Storage (generalmente en formato parquet) o bases de datos SQL/NOSQL. Gestionar soluciones de almacenamiento de big data en la plataforma (HDFS, IBM Cloud Storage, estructurado y bases de datos no estructuradas) Transformación y Calidad de Datos: implementar transformación de datos y control de calidad. procesos para garantizar la coherencia y precisión de los datos. Utilizar lenguajes de programación como Scala y SQL. Y bibliotecas como Spark para operaciones de enriquecimiento y transformación de datos. Implementación de canales de CI/CD: configurar canales de CI/CD para automatizar la implementación, unidad pruebas y gestión del desarrollo. Migración de infraestructura: migrar la infraestructura de Hadoop existente a la infraestructura de nube en Kubernetes Engine, Object Storage (almacenamiento en la nube de IBM), Spark como servicio en Scala (para construir las canalizaciones de datos) y Airflow como servicio (para orquestar y programar los datos tuberías) Implementación de esquemas, consultas y vistas en bases de datos SQL/NOSQL como Oracle, Postgres o MongoDB Desarrollar y configurar la programación de canalizaciones de datos con una combinación de scripts de shell. y AirFlow como servicio Pruebas de validación: realizar pruebas unitarias y de validación para garantizar la precisión y la integridad. Documentación: redactar documentación técnica (especificaciones, documentos operativos) para asegurar la capitalización del conocimiento. Se ofrece: Proyecto estable. Contrato indefinido. Modalidad de trabajo: híbrida (un mes se trabajará 2 días de manera presencial y 3 días de teletrabajo a la semana) y otro mes 100% remoto. Y así sucesivamente meses alternos. Horario: Jornada completa de lunes-jueves (en principio de 09-18h) y viernes y verano intensiva Tienen flexibilidad total en cuanto a horario para entrar entre las 8-9h, 1 hora para comer y salir sobre las 17:30. Son 8,5 horas al día para acumular de cara a los días de jornadas intensivas. Salario: 39.000EUR - 41.000EUR / brutos anuales (en función de la experiencia aportada). Se valoran candidaturas por salarios superiores en función de la experiencia). Seguro médico opcional que incluye seguro dental y psicología y retribución flexible a nivel de tickets restaurante. Cursos de formación gratuita.

  • 05/09/2024

    Madrid, Other

    Desde Sandav Consultores estamos en búsqueda de un Data Engineer para cliente ubicado en Madrid (zona de Arganzuela) con modalidad híbrida de trabajo (un mes se trabajará 2 días de manera presencial y 3 días de teletrabajo a la semana) y otro mes 100% remoto. Y así sucesivamente meses alternos. Desarrollo de Modelado de Datos y Pipelines con Spark y Scala para ingesta y transformación. datos de diferentes fuentes (temas de Kafka, API, HDFS, bases de datos estructuradas, archivos) en Le siguen HDFS, IBM Cloud Storage (generalmente en formato parquet) o bases de datos SQL/NOSQL. Gestionar soluciones de almacenamiento de big data en la plataforma (HDFS, IBM Cloud Storage, estructurado y bases de datos no estructuradas) Transformación y Calidad de Datos: implementar transformación de datos y control de calidad. procesos para garantizar la coherencia y precisión de los datos. Utilizar lenguajes de programación como Scala y SQL. Y bibliotecas como Spark para operaciones de enriquecimiento y transformación de datos. Implementación de canales de CI/CD: configurar canales de CI/CD para automatizar la implementación, unidad pruebas y gestión del desarrollo. Migración de infraestructura: migrar la infraestructura de Hadoop existente a la infraestructura de nube en Kubernetes Engine, Object Storage (almacenamiento en la nube de IBM), Spark como servicio en Scala (para construir las canalizaciones de datos) y Airflow como servicio (para orquestar y programar los datos tuberías) Implementación de esquemas, consultas y vistas en bases de datos SQL/NoSQL como Oracle, Postgres o MongoDB Desarrollar y configurar la programación de canalizaciones de datos con una combinación de scripts de shell. y AirFlow como servicio Pruebas de validación: realizar pruebas unitarias y de validación para garantizar la precisión y la integridad. Documentación: redactar documentación técnica (especificaciones, documentos operativos) para asegurar la capitalización del conocimiento. Requisitos mínimos -Spark en Scala como lenguaje de desarrollo de canalización de datos heredado - Spark como servicio en Scala como plataforma de desarrollo de canales de datos - Experiencia en el diseño y desarrollo de procesos de streaming utilizando Spark Streaming, - Transmisión de estructura Spark y Apache Kafka - Gestión de soluciones heredadas de almacenamiento de big data (HDFS) - Gestión de soluciones de almacenamiento de big data (IBM Cloud Object Storage y formato parquet) - Implementación de esquemas, consultas y vistas de bases de datos SQL/NO SQL (MongoDB, Oracle, Postgres) - Shell scripting y Airflow como solución de programación de canalización de datos - Dremio como herramienta de virtualización de datos - Dataiku como herramienta de preparación de datos como bonificación - Inglés nivel alto (B2-C1). Requisitos deseados Se valora positivamente si se tiene Francés.

  • 24/09/2024

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular, Other

    Trabajarás como Data Engineer 100% en remoto en un nuevo proyecto del sector bancario, donde se va a comenzar con el análisis de la información existente y posteriormente se va a desarrollar, participando en todo el ciclo de vida del proyecto. ¿Cómo será tu día a día? Análisis de la información existente. Ver los requisitos del proyecto. Modelado de datos. Desarrollo en Spark y Java. Desarrollo de API REST. ¿Qué te hará triunfar en la posición? Formación en Informática o Matemáticas. 3 años de experiencia como Data Engineer desarrollando con Spark y/o Java. Experiencia en modelado de datos. Experiencia con API REST, Elasticsearch (ELK) y MongoDB. Experiencia en SQL y NoSQL. ¿Quiénes somos? Somos una empresa líder en el sector tecnológico, con 20 años de experiencia y más de 500 profesionales repartidos en España, México, Cololombia y Perú. En Zemsania, nos apasiona la innovación y el desarrollo de soluciones tecnológicas que impacten de manera positiva a nuestros clientes. ¿Por qué trabajar con nosotros? En Zemsania, valoramos el talento y la pasión por la tecnología. Ofrecemos un ambiente de trabajo dinámico, colaborativo y lleno de oportunidades de crecimiento y desarrollo profesional. ¡Si buscas un lugar donde tus habilidades sean valoradas y donde puedas seguir aprendiendo, Zemsania es el lugar para ti! ¿Qué ofrecemos? Modalidad de trabajo 100% REMOTO, con reuniones puntuales en Madrid. Horario: lunes a jueves de 8 a 18h (con flexibilidad de entrada de 1 hora y 1 hora para comer) e intensiva los viernes hasta las 15h. Jornada intensiva los meses de julio y agosto, de 8 a 15h todos los días. Posición estable, indefinida y de larga duración. Salario competitivo según la experiencia y lo que puedas aportar al proyecto. Oportunidades de formación en tecnologías punteras (Open Webinars). Clases de inglés con diferentes niveles, adaptadas a ti. Certificaciones pagadas en las últimas tendencias. Amplio abanico de retos y proyectos. Acceso a beneficios fiscales gracias a nuestro plan de Retribución Flexible (ticket restaurante, transporte, guardería y formación). Finalizar el contrato siempre es la última opción, buscamos entre la multitud de proyectos que tenemos otro que pueda interesarte. Seguimiento personalizado gracias al acompañamiento de nuestra figura de People Partner y un Business Manager. Trato cercano y seguimiento: vas a estar en constante comunicación con nosotros para saber cómo avanza el proyecto. ¡DA EL PASO PARA COMENZAR TU NUEVA ETAPA PROFESIONAL!

  • 30/09/2024

    Andalusia

    ¿Estás buscando una nueva oportunidad o un nuevo proyecto? CMV Consultores, en colaboración con importante partner del sector IT, precisa incorporar un perfil DEVOPS con experiencia trabajando en entorno MLOPS para participar en un proyecto en colaboración con uno de nuestros socios comerciales más importantes del sector IT. Se requiere: Perfil con mínimo 3 años de experiencia. Conocimientos: MLOps. Obtención de datos: ETL. APIs, pipelines, automatizaciones, chatbots... Optimización de código Python, Java y Spark. Cloud (Azure y AWS). Administración de máquinas Linux. Modelos supervisados (regresiones, random forest, SVM, etc) y no supervisados (PCA, clustering, etc) de Machine Learning. ¿Qué podemos ofrecerte? SALARIO: A convenir según experiencia demostrada. CONTRATO: Indefinido. Modalidad de trabajo: Presencial (Málaga). ¡ Mándanos tu CV !

  • 05/11/2024

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Description: Desde Grupo Digital, estamos en búsqueda de un perfil Data Scientist con experiencia en Python y con inglés fluido para uno de nuestros clientes. Conocimientos imprescindibles (tecnología) Años de experiencia: Mínimo 2-3 años de experiencia demostrable en las tecnologías requeridas. Programación en Python Data modelling SQL Synapse Spark Data Vault 2.0 GIT, JIRA, confluence, Scrum Buenas habilidades de comunicación con las partes interesadas del negocio (sin experiencia en TI) en inglés (nivel avanzado) Análisis y aplicación de la lógica empresarial en coordinación con las partes interesadas. Capacidad para trabajar con un panorama de datos muy complejo. Conocimientos deseables (tecnología): C# MS Azure Talend ElasticSearch RabbitMQ Condiciones Laborales: Duración proyecto: Estable. Contrato indefinido. Ubicación: España. Imprescindible residir en territorio español. Modalidad: 100% remoto Banda salarial: Valorable en función de la experiencia aportada (hasta 36K) SOBRE NOSOTROS Grupo Digital Somos un grupo de empresas tecnológicas, formado actualmente por unos 200 profesionales, en distintas áreas: desarrollo, sistemas, ingeniería automática, consultoría... Si quieres impulsar tu carrera con un proyecto único de la mano de una multinacional de primerísimo nivel, no dudes en presentar tu candidatura. ¡Te esperamos!

  • 23/10/2024

    Catalonia, Cantabria, Madrid

    Desde Sandav estamos buscando un/a profesional Data Analyst SAS, para un proyecto en formato híbrido (3 días de oficina cada 2 semanas) Perfil: Formación: universitaria, preferiblemente en ámbitos técnicos como Ingeniería Informática, Ingeniería de Software, etc. Experiencia como Data Engineer: Dos (2) a tres (3) años. Conocimientos necesarios: SAS Base, SAS Guide, SAS Macros y SQL. Conocimientos deseables: herramientas BI y Big Data. Experiencia requerida como desarrollador de ETLs procesamiento de datos con SAS. Se ofrece: Contrato indefinido Buen clima laboral Modalidad hibrido asistencia a la oficina 3d/2 semanas Horario: L-J de 9:00 a 18:30 y V de 9:00 a 15:00. Horario de verano de 15/06 al 15/09 con horario de 8:00 a 15:00 horas (siempre en función del cliente) Banda Salarial abierta 25-29k flexibles. (siempre abiertos a negociar y adaptarnos a vuestras pretensiones) ¿Quieres trabajar en una empresa en la que sabemos cómo te llamas, nos preocupamos por tu bienestar y cuando necesitas algo te atendemos al momento? SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, que en resumen quiere decir que CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com

  • 25/10/2024

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Buscamos un Arquitecto Talend API Services para unirse a nuestro equipo dinámico y en crecimiento. El candidato ideal será un profesional con una sólida trayectoria en proyectos de integración de datos, que combine habilidades técnicas avanzadas con una fuerte capacidad de liderazgo y gestión de equipos. Esta persona será responsable del diseño y desarrollo de arquitecturas efectivas usando Talend, enfocándose en la integración de datos mediante APIs y procesos por lotes (Batch). Requisitos Experiencia significativa en proyectos de integración de datos (Batch + API) con Talend. Sólida experiencia en el desarrollo y diseño de arquitecturas y proyectos con Talend. Experiencia en Integración Continua y comprensión del ciclo de vida del Software. Experiencia en diseño e implementación de arquitecturas de microservicios. Experiencia en SQL Server y manejo avanzado de bases de datos. Experiencia en ActiveMQ/Kafka para la integración de sistemas. Habilidades de liderazgo y gestión de equipos técnicos, con la capacidad de inspirar y guiar a los compañeros de equipo hacia el éxito. Habilidades Deseadas Deseables certificaciones en Talend (Developer + Administrator). Experiencia en el uso de herramientas y servicios de Azure para la implementación y gestión de soluciones en la nube. Qué ofrecemos Ubicación en Barcelona y alrededores. Proyecto híbrido: 4 días remoto + 1 día en la oficina del cliente (Hospitalet de Llobregat). Flexibilidad horaria para equilibrar tu vida laboral y personal. Oportunidades de formación continua y certificaciones oficiales para impulsar tu desarrollo profesional.

  • 04/10/2024

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Ingeniero de MLOps que pueda diseñar y mantener la infraestructura necesaria para entrenar y desplegar modelos de IA generativa y LLM en entornos de AWS y Azure. El candidato debe tener una experiencia sólida en automatización, despliegue continuo y optimización de pipelines de datos para modelos avanzados de IA. Requisitos: Experiencia: experiencia en ingeniería de datos, MLOps o DevOps, con un enfoque reciente en IA generativa y LLM. Cloud Computing: Profunda experiencia en la construcción y gestión de infraestructuras de datos en AWS (SageMaker, EC2, EKS) y Azure (Machine Learning, Kubernetes Service, Data Factory). Automatización y CI/CD. Experiencia con herramientas de CI/CD como Jenkins, GitLab, y prácticas de infraestructura como código (IaC) con Terraform o CloudFormation. Optimización de Modelos. Habilidad para trabajar con equipos de Data Science en el ajuste fino de modelos LLM, optimización de rendimiento, y escalabilidad. Monitorización de Modelos. Experiencia en la creación de dashboards y sistemas de monitorización (CloudWatch, Grafana, Prometheus) para seguir el rendimiento de los modelos en producción. Data Engineering. Fuerte capacidad para trabajar con herramientas de procesamiento de datos masivos como Apache Spark, AWS Glue, y Kafka. Scripting y Automatización. Dominio en scripting (Bash, Python) para automatizar procesos de despliegue y mantenimiento de pipelines de IA. soft skills, proactividad, buena capacidad de comunicación y de presentación de resultados deseable, interés por el estado del arte en IA generativa y asistentes conversacionales. Responsabilidades: Colaborar con equipos de ciencia de datos para diseñar infraestructuras optimizadas para el entrenamiento y la inferencia de modelos LLM en AWS y Azure. Desarrollar y automatizar pipelines de despliegue para modelos de IA generativa, asegurando alta disponibilidad y escalabilidad. Implementar soluciones de monitorización en tiempo real para capturar métricas clave de rendimiento y KPIs de los modelos en producción. Optimizar el costo y el rendimiento de los sistemas mediante la gestión eficiente de recursos en la nube y la integración de soluciones de autoscaling. Garantizar la seguridad y el cumplimiento de normativas en la gestión de datos y el despliegue de modelos en entornos de producción. M> Consulting es una Consultora Tecnológica y de Negocio con un fuerte bagaje profesional y especialización en sectores como la Banca, las Telecomunicaciones o la Industria. Somos una empresa joven y comprometida con la innovación y los cambios, por lo que apostamos fuerte por los nuevos retos de la tecnología: Big Data, Cloud, Desarrollo Digital o Movilidad. Trabajamos con los clientes más importantes de estos sectores, ofreciendo proyectos acordes a tu formación, experiencia y motivaciones profesionales. Ofrecemos: Incorporación a la plantilla de M>. Formación y seguimiento personalizado para tu desarrollo profesional (mentor). Participación en proyectos de tecnologías destacables en el sector. Salario acorde a la experiencia aportada. Responsable del Tratamiento: Management & Global Technologies S.L Finalidad: Participar en los procesos de selección de personal del responsable del tratamiento Legitimación: Aplicación a solicitud del candidato, de medidas precontractuales o la intención de concluir el contrato de trabajo (Art. 6.1.b Rgpd) Destinatarios: Empresas en las que prestará sus servicios Ejercicio de Derechos: Tiene derecho a acceder, rectificar y suprimir sus datos, así como otros derechos que podrá consultar en nuestra política de privacidad. Puede ejercer sus derechos a través de la dirección de email *texto oculto* Información Adicional: Puede consultar la información adicional sobre nuestra política de protección de datos en esta dirección web https://www.mgt-consulting.com/politica-de-privacidad

  • 07/10/2024

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    En Rawson BPO trabajamos para impulsar tu carrera profesional proponiéndote nuevos retos. Trabajarás con las tecnologías más vanguardistas tanto en proyectos nacionales e internacionales. ¿Qué te ofrecemos? Contrato Indefinido Salario competente y revisable Formación continua IT e Idiomas Retribución flexible Modalidad de trabajo: Remoto. ¿Qué buscamos? Experiencia en desarrollo de software bajo tecnología .NET Core Experiencia con herramientas ETL. Conocimiento de arquitectura de datos y diseño de flujos. Habilidades de colaboración y comunicación con stakeholders. Acostumbrado a trabajar en equipo. Experiencia en aplicaciones basadas en microservicios y APIs. Dominio de tecnologías de integración de datos como API REST. Inglés hablado y escrito (la comunicación con el cliente es en inglés). Experiencia en Bases de datos (SQL, Snowflake). Conocimiento de Python ¡Si estás buscando una empresa dónde valores el trato personalizado esta es la tuya!