Jobs Data Analyst ETL / Datawarehouse
Estás son las últimas ofertas de trabajo de Data Analyst ETL / Datawarehouse encontradas.
job(s)
-
12/12/2024
Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular
Resumen de la empresa/cliente: Empresa líder en el sector asegurador, comprometida con la innovación y la transformación digital, busca un Ingeniero de Datos Talend/MongoDB para un proyecto estratégico. Responsabilidades principales: Diseño, desarrollo, pruebas e implementación de procesos ETL utilizando la suite de Talend. Diseño, desarrollo, pruebas e implementación de scripts en MongoDB. Ejecución de consultas NoSQL eficientes. Documentación técnica detallada de los procesos y soluciones implementadas. Detalles del proyecto: Sector: Seguros. Formato de trabajo: Remoto 100%. Horario: Flexible. Si cumples con los requisitos y estás interesado en formar parte de un equipo innovador, envía tu CV actualizado para más detalles sobre el proceso de selección. ¡Esperamos tu postulación!
-
09/12/2024
Andalusia, Catalonia
Description: Desde Grupo Digital necesitamos para importante cliente de Consultoria IT DATA ANALYST ( Databricks en Azure ) Orientado a ofrecer soluciones como consultor/a de datos en un entorno con resultados rápidos. Se requerirá investigación y el marco será ofrecer visibilidad de la calidad de sus datos en su contexto de negocio Se trata de un Proyecto de largo recorrido que requiere experiencia en Data Analyst Minimum requirements: Requisitos Mas de 4 años de experiencia sólida en análisis de datos, valiéndose especialmente de las herramientas de Azure. Con experiencia sólida en análisis de datos, valiéndose especialmente de las herramientas de Azure. Daremos prioridad a candidaturas en las ciudades de Reus y Granada, así como a sus alrededores. 🔎¿Qué buscamos? Conocimiento avanzado, adquirido durante años de experiencia desempeñando las siguientes funciones: Desarrollo de procesos en entornos Databricks en Azure Orquestación de procesos ETL con DataFactory Aunque no es imprescindible para el desarrollo del puesto, valoramos positivamente Conocimiento en SnowFlake Conocimiento MicroStrategy o Power BI Ingles minimo B1 ��¿Qué ofrecemos? Contrato indefinido directamente en plantilla de cliente Formación continua Plan de Retribución Flexible: seguro médico, tickets restaurante, guardería, ayudas al transporte... Seguro de vida y accidentes Mínimo de 27 días laborables de vacaciones al año Pago de facturas médicas Servicio gratuito en especialistas (médicos, fisioterapeutas, nutricionistas, psicólogos, abogados...) Formación: certificaciones gratuitas, acceso a Coursera, clases semanales de inglés y alemán... 100% del salario en caso de baja médica Condiciones Laborales: Localización: una de las siguientes sedes Provincia de Tarragona (allí nuestras oficinas están en Reus) Andalucía (preferiblemente Granada, Málaga y Sevilla). Modalidad de trabajo: híbrida (3 Remoto + 2 oficina). Horario: entrada flexible de 8 a 10 h y salida de 17 a 19 h. Posibilidad de hacer jornada intensiva los viernes y desde el 15 de junio al 15 de septiembre. Otros aspectos a tener en cuenta: . Incorporación tras las navidades. ¡y muchas más ventajas ... ! Grupo Digital Somos un grupo de empresas tecnológicas, formado actualmente por unos 200 profesionales, en distintas áreas: desarrollo, sistemas, ingeniería automática, consultoría..Amplia informacion en nuestra web wwww.grupodigital.eu
-
07/11/2024
Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular
Descripción del puesto Zemsania, una empresa líder en el sector tecnológico, está en búsqueda de un Data Engineer especializado en Google Cloud Platform (GCP). Requisitos Experiencia mínima de 4 años en roles de ingeniería de datos, con un enfoque en GCP y proyectos relacionados. Sólida experiencia en el desarrollo de pipelines y transformaciones de datos (ETLs) usando BigQuery. Conocimientos y experiencia en SQL Server y Talend para la ingesta de datos. Excelente dominio de SQL para consultas y manipulación de bases de datos. Buen nivel de Python para el desarrollo y automatización de procesos. Habilidades analíticas y de resolución de problemas, con una atención meticulosa a los detalles. Capacidad para trabajar de forma independiente y en equipo, gestionando múltiples tareas y prioridades. Nivel de inglés B2. Ofrecemos Oportunidad de trabajar en un entorno 100% remoto, con flexibilidad horaria. Un equipo dinámico y colaborativo con un enfoque en la innovación y el crecimiento. Formación continua y desarrollo profesional en tecnologías de vanguardia. Acceso a un entorno que fomenta la creatividad, la colaboración y el aprendizaje constante. Paquete de compensación competitivo y beneficios adicionales. Únete a nosotros y sé parte de la transformación digital en la nube. ¡Esperamos recibir tu solicitud!
-
31/10/2024
Madrid
Desde INECO estamos actualmente inmersos en la transformación digital de diferentes organismos y administraciones de la AGE e incrementando el equipo dedicado a toda la implementación de funcionalidades innovadoras dentro del área de IA y la implantación de nuevos sistemas de automatismos para mejorar el uso de datos y herramientas. Buscamos profesionales dedicados al tratamiento de datos, tanto Analistas como Ingeniero/a de Datos. Las funciones en los diferentes encargos serán desde integración de los datos en sistemas, como redefinir y automatizar la manera de tratar a los mismos, el desarrollo de nuevas IA que automaticen ciertos procesos como la reingeniería interna de datos para la implantación de nuevas herramientas de datos no relacionales. Trabajarías en el departamento encargado de la aplicación tecnológica del dato participando en algunos casos en la creación de los laboratorios de datos. Rol: Experto/a de Implementación de IA y Análisis de Datos Funciones: 1. Extracción de datos de diferentes fuentes de información. Limpieza de los dato relacionales y no relacionales Procesamiento de datos y su interpretación de la forma más adecuada a partir de relaciones estadísticas, análisis matemáticos, modelos predictivos etc. que permitan sacar conclusiones orientadas a negocio. Desarrollo y modificación de aplicaciones web mediante HTML, CSS y Java Script. 2. Creación de Algoritmos: Creación de nuevos algortimos para aumentar la capacidad de la IA Creación de nuesvas funcionales de las IA Creación de automatismos para el tratamiento del dato. 3. Diseño y participación en nuevo modelos de tratamiento del dato así como su integración en los sistemas Experiencia en: Al menos tres (3) años de experiencia en cada una de estas tecnologías: Python. CSS. HTML. JavaScript. Diseño de páginas web. Pandas, keros o similar... Capacidad de aprendizaje. Debe ser creativo y estar preparado para establecer confianza entre los miembros de distintos departamentos. Conocimientos de: Business Intelligence (BI) con herramientas analíticas: Qlik, Power BI. Machine learning Deep learning Si estás interesado/a en incorporarte en un departamento que está en continua evolución no dudes en apuntarte a la oferta.