Trabajo Data Analyst Kafka en 28040 Madrid

Estás son las últimas ofertas de trabajo de Data Analyst Kafka en 28040 Madrid encontradas.

 empleos encontrados

  • 31/10/2024

    Madrid

    Desde INECO estamos actualmente inmersos en la transformación digital de diferentes organismos y administraciones de la AGE e incrementando el equipo dedicado a toda la implementación de funcionalidades innovadoras dentro del área de IA y la implantación de nuevos sistemas de automatismos para mejorar el uso de datos y herramientas. Buscamos profesionales dedicados al tratamiento de datos, tanto Analistas como Ingeniero/a de Datos. Las funciones en los diferentes encargos serán desde integración de los datos en sistemas, como redefinir y automatizar la manera de tratar a los mismos, el desarrollo de nuevas IA que automaticen ciertos procesos como la reingeniería interna de datos para la implantación de nuevas herramientas de datos no relacionales. Trabajarías en el departamento encargado de la aplicación tecnológica del dato participando en algunos casos en la creación de los laboratorios de datos. Rol: Experto/a de Implementación de IA y Análisis de Datos Funciones: 1. Extracción de datos de diferentes fuentes de información. Limpieza de los dato relacionales y no relacionales Procesamiento de datos y su interpretación de la forma más adecuada a partir de relaciones estadísticas, análisis matemáticos, modelos predictivos etc. que permitan sacar conclusiones orientadas a negocio. Desarrollo y modificación de aplicaciones web mediante HTML, CSS y Java Script. 2. Creación de Algoritmos: Creación de nuevos algortimos para aumentar la capacidad de la IA Creación de nuesvas funcionales de las IA Creación de automatismos para el tratamiento del dato. 3. Diseño y participación en nuevo modelos de tratamiento del dato así como su integración en los sistemas Experiencia en: Al menos tres (3) años de experiencia en cada una de estas tecnologías: Python. CSS. HTML. JavaScript. Diseño de páginas web. Pandas, keros o similar... Capacidad de aprendizaje. Debe ser creativo y estar preparado para establecer confianza entre los miembros de distintos departamentos. Conocimientos de: Business Intelligence (BI) con herramientas analíticas: Qlik, Power BI. Machine learning Deep learning Si estás interesado/a en incorporarte en un departamento que está en continua evolución no dudes en apuntarte a la oferta.

  • 17/09/2024

    Madrid, Otro

    Desde Sandav Consultores estamos en búsqueda de un Data Engineer para cliente ubicado en Madrid (zona de Arganzuela) con modalidad híbrida de trabajo (un mes se trabajará 2 días de manera presencial y 3 días de teletrabajo a la semana) y otro mes 100% remoto. Y así sucesivamente meses alternos. Desarrollo de Modelado de Datos y Pipelines con Spark y Scala para ingesta y transformación. datos de diferentes fuentes (temas de Kafka, API, HDFS, bases de datos estructuradas, archivos) en Le siguen HDFS, IBM Cloud Storage (generalmente en formato parquet) o bases de datos SQL/NOSQL. Gestionar soluciones de almacenamiento de big data en la plataforma (HDFS, IBM Cloud Storage, estructurado y bases de datos no estructuradas) Transformación y Calidad de Datos: implementar transformación de datos y control de calidad. procesos para garantizar la coherencia y precisión de los datos. Utilizar lenguajes de programación como Scala y SQL. Y bibliotecas como Spark para operaciones de enriquecimiento y transformación de datos. Implementación de canales de CI/CD: configurar canales de CI/CD para automatizar la implementación, unidad pruebas y gestión del desarrollo. Migración de infraestructura: migrar la infraestructura de Hadoop existente a la infraestructura de nube en Kubernetes Engine, Object Storage (almacenamiento en la nube de IBM), Spark como servicio en Scala (para construir las canalizaciones de datos) y Airflow como servicio (para orquestar y programar los datos tuberías) Implementación de esquemas, consultas y vistas en bases de datos SQL/NOSQL como Oracle, Postgres o MongoDB Desarrollar y configurar la programación de canalizaciones de datos con una combinación de scripts de shell. y AirFlow como servicio Pruebas de validación: realizar pruebas unitarias y de validación para garantizar la precisión y la integridad. Documentación: redactar documentación técnica (especificaciones, documentos operativos) para asegurar la capitalización del conocimiento. Se ofrece: Proyecto estable. Contrato indefinido. Modalidad de trabajo: híbrida (un mes se trabajará 2 días de manera presencial y 3 días de teletrabajo a la semana) y otro mes 100% remoto. Y así sucesivamente meses alternos. Horario: Jornada completa de lunes-jueves (en principio de 09-18h) y viernes y verano intensiva Tienen flexibilidad total en cuanto a horario para entrar entre las 8-9h, 1 hora para comer y salir sobre las 17:30. Son 8,5 horas al día para acumular de cara a los días de jornadas intensivas. Salario: 39.000EUR - 41.000EUR / brutos anuales (en función de la experiencia aportada). Se valoran candidaturas por salarios superiores en función de la experiencia). Seguro médico opcional que incluye seguro dental y psicología y retribución flexible a nivel de tickets restaurante. Cursos de formación gratuita.

Búsqueda avanzada