Jobs Data Scientist Bigdata

Estás son las últimas ofertas de trabajo de Data Scientist Bigdata encontradas.

 job(s)

  • 07/01/2025

    Madrid

    Estamos buscando un Ingeniero de Big Data / Machine Learning para el Desarrollo de planes de acción, especificaciones técnicas para desarrollar pliegos y seguimiento de iniciativas en el campo de la mejora de la Administración Electrónica para la Transformación Digital. Rol: Ingeniero de Big Data / Machine Learning Requisitos: Consultoría y análisis de soluciones complejas en general, siempre en el ámbito TIC (mínimo cinco (5) años). Conocimiento en Arquitectura o ingeniería de datos de cara a implantación de proyectos de Big Data y/o Machine Learning (mínimo tres (3) años). Conocimiento de plataformas de Big Data (Hadoop, Casandra, etc) y procesamiento de altos volúmenes de información (Streams) tipo Kafka, Spark, Storm, MapReduce. Diseño e implementación de infraestructuras informáticas complejas (sistemas de información). Gestión de proyectos y programas. Elaboración de especificaciones técnicas ligadas a la contratación pública, y realización en general de pliegos de contratación. Condiciones Laborales: Lugar de Trabajo: Madrid, España. Tipo de Contrato: A Término Indefinido. Salario: A convenir de acuerdo a la experiencia.

  • 27/12/2024

    Madrid

    Desde INECO estamos actualmente inmersos en la transformación digital de diferentes organismos y administraciones de la AGE e incrementando el equipo dedicado a toda la implementación de funcionalidades innovadoras dentro del área de IA y la implantación de nuevos sistemas de automatismos para mejorar el uso de datos y herramientas. Buscamos profesionales dedicados al tratamiento de datos, tanto Analistas como Ingeniero/a de Datos. Las funciones en los diferentes encargos serán desde integración de los datos en sistemas, como redefinir y automatizar la manera de tratar a los mismos, el desarrollo de nuevas IA que automaticen ciertos procesos como la reingeniería interna de datos para la implantación de nuevas herramientas de datos no relacionales. Trabajarías en el departamento encargado de la aplicación tecnológica del dato participando en algunos casos en la creación de los laboratorios de datos. Rol: Experto/a de Implementación de IA y Análisis de Datos Funciones: 1. Extracción de datos de diferentes fuentes de información. Limpieza de los dato relacionales y no relacionales Procesamiento de datos y su interpretación de la forma más adecuada a partir de relaciones estadísticas, análisis matemáticos, modelos predictivos etc. que permitan sacar conclusiones orientadas a negocio. Desarrollo y modificación de aplicaciones web mediante HTML, CSS y JavaScript. 2. Creación de Algoritmos: Creación de nuevos algortimos para aumentar la capacidad de la IA Creación de nuesvas funcionales de las IA Creación de automatismos para el tratamiento del dato. 3. Diseño y participación en nuevo modelos de tratamiento del dato así como su integración en los sistemas Experiencia en: Al menos tres (3) años de experiencia en cada una de estas tecnologías: Python. CSS. HTML. JavaScript. Diseño de páginas web. Pandas, keros o similar... Capacidad de aprendizaje. Debe ser creativo y estar preparado para establecer confianza entre los miembros de distintos departamentos. Conocimientos de: Business Intelligence (BI) con herramientas analíticas: Qlik, Power BI. Machine learning Deep learning Si estás interesado/a en incorporarte en un departamento que está en continua evolución no dudes en apuntarte a la oferta.

  • 17/12/2024

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Oferta de Empleo: Ingeniero/a de Datos Senior Horario: 09:00 a 18:00 Requisitos Mínimos: Experiencia avanzada en Databricks Conocimientos sólidos en Azure Perfil senior con amplia experiencia en proyectos de datos Funciones Principales: Diseño, implementación y optimización de soluciones de datos en la nube, asegurando un procesamiento eficiente y una administración efectiva de grandes volúmenes de datos. Configuración de pipelines de datos: Utilización de herramientas como Azure Data Factory o Azure Databricks para realizar procesos ETL (extracción, transformación y carga de datos). Procesamiento de datos en tiempo real: Implementación de flujos de datos mediante Apache Spark Streaming y Event Hubs. Integración de datos desde múltiples fuentes: Conexión a bases de datos SQL, NoSQL, archivos planos en Azure Data Lake Storage (ADLS), APIs y otros servicios. Automatización de tareas: Desarrollo de procesos para orquestar workflows de datos utilizando herramientas del ecosistema Azure. El rol se enfoca en la ingeniería y optimización de pipelines de datos, facilitando la transformación de grandes volúmenes de datos y asegurando su disponibilidad para análisis avanzado. Todo esto en un entorno seguro, escalable y orientado a la excelencia operativa. Detalles de la posición: Oportunidad para trabajar en una empresa de tecnología multinacional, dando servicio al sector seguros o sector multicliente. Modalidad 100% remota. Contratación indefinida, con proyección de desarrollo profesional en proyectos innovadores. ¿Te interesa ser parte de este proyecto? ¡Postúlate y únete a nuestro equipo!

Detailed Job Search

Select location