Jobs Data Analyst Cloud Technologies

Estás son las últimas ofertas de trabajo de Data Analyst Cloud Technologies encontradas.

 job(s)

  • 04/02/2025

    Madrid

    En CMV Consultores, buscamos 1 perfil de Business Analyst DATA CLOUD Tareas a realizar: Acompañamiento al cliente durante la fase de implantación de Data Cloud Capacidad de analizar el AS IS del cliente, para poder definir un plan de implantación y trabajo Diseño del modelo de datos en Data Cloud (DLO, DMO, Data mappings, Data Streams) Configuración de reglas de unificación de identidad (identity resolution) Configuración de segmentaciones y activaciones Conocmiento funcionalidades AI Conocimiento Loyalty Cloud Capacitación a equipos en cliente Teletrabajo Híbrido - oficina Madrid

  • 31/01/2025

    Madrid

    Estamos en busca de un: Ingeniero de Visualización de Datos talentoso y altamente motivado para unirse a nuestro equipo dinámico. Requisitos: Experiencia de 3 años en roles de visualización de datos como BI Developer o BI Analyst. Conocimiento previo en ITSM y experiencia laboral directa con las tecnologías mencionadas. Dominio necesario de SAP Business Objects y Snowflake. Familiaridad con Power BI y Azure es altamente valorada. Nivel de inglés C1 (competente para interactuar con clientes y documentos técnicos. Capacidad para trabajar de manera independiente y gestionar múltiples tareas en un entorno remoto.

  • 30/01/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Rol: Expert Engineer Perfil requerido: Estamos buscando un perfil de Ingeniero de Datos con al menos 3-4 años de experiencia en el desarrollo de procesos de ingeniería en entornos Azure. Se requiere total autonomía para trabajar con herramientas como Databricks, Synapse, Data Factory, y SQL Database. Requisitos: Experiencia sólida en Azure (Databricks, Synapse, Data Factory). Conocimiento y experiencia en la creación de modelos de datos (definición y creación de tablas, relaciones complejas, queries, procedimientos almacenados). Experiencia en desarrollo de pipelines y transformaciones de datos complejas (ETLs). Buen nivel de SQL. Experiencia trabajando en metodologías ágiles (Agile). Se valorará experiencia con metodologías y herramientas para despliegue e integración continua (Azure DevOps, Github, Jenkins, Terraform, Docker, Ansible). Deseable: Conocimiento en Microsoft Fabric. Idiomas: Inglés B2 (al menos). Sector: Industria. Condiciones: Formato de trabajo: Puede ser 100% remoto, salvo algunas reuniones puntuales en oficinas o cliente (de manera excepcional). Se ofrece: Oportunidad de trabajar en un proyecto desafiante con herramientas de última generación. Flexibilidad de trabajo remoto. Participación en un equipo ágil y dinámico. Posibilidad de crecimiento y desarrollo profesional dentro de un entorno innovador. Palabras clave: Azure, Databricks, Synapse, Data Factory. ¡Si cumples con estos requisitos y estás buscando un nuevo reto, esperamos tu postulación!

  • 07/01/2025

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Funciones a realizar en el puesto: Obtención y revisión de las analíticas obtenidas a partir de los registros de clics de usuarios de distintas plataformas y fuentes, pudiendo enriquecerse con datos de información demográfica que permitan adaptar los contenidos a la audiencia objetiva. Estos datos se buscarían y extraerían de herramientas como las siguientes: Adobe heartbeat Streaming Tag de comScore Kantar UserTracker Conviva o MUX Para ofrecer el dato cuantitativo y cualitativo. Validación de casos de uso de negocio. Definición y validación de payloads para tracking de usuarios. Requisitos Conocimientos de las siguientes herramientas: Adobe heartbeat Streaming Tag de comScore Kantar UserTracker Conviva o MUX Experiencia con: Uso de APIS de consulta Elastic Search Kibana. Google Tag Manager. AWS o Google Cloud. // Años de experiencia en el puesto: 2-4 años Titulación: Informática - Formación Profesional - Desarrollo de Aplicaciones Web - Matemáticas y Físicas Beneficios como trabajador/a Paquete retributivo en Beneficios. Tú eliges si destinarlo a: Seguro Médico, Cheque Guardería, Tarjeta Transporte, Tarjeta Restaurante y/o Formación. Jornada flexible. En Ineco disponemos de 18 medidas de conciliación, entre las que destacan, la flexibilidad horaria, teletrabajo, las políticas de reuniones y de luces apagadas, asistencia médica o educativa con familiares de primer grado. Encargos estables. Proyectos de larga duracción. En Ineco apostamos por el talento que tiene como base entornos de trabajo retadores y estimulantes que promuevan el desarrollo personal y profesional de nuestros empleados, garantizando el cumplimiento de los principios de igualdad, mérito y capacidad, así como la trasparencia, objetividad y la igualdad de oportunidades.

  • 17/12/2024

    Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular

    Oferta de Empleo: Ingeniero/a de Datos Senior Horario: 09:00 a 18:00 Requisitos Mínimos: Experiencia avanzada en Databricks Conocimientos sólidos en Azure Perfil senior con amplia experiencia en proyectos de datos Funciones Principales: Diseño, implementación y optimización de soluciones de datos en la nube, asegurando un procesamiento eficiente y una administración efectiva de grandes volúmenes de datos. Configuración de pipelines de datos: Utilización de herramientas como Azure Data Factory o Azure Databricks para realizar procesos ETL (extracción, transformación y carga de datos). Procesamiento de datos en tiempo real: Implementación de flujos de datos mediante Apache Spark Streaming y Event Hubs. Integración de datos desde múltiples fuentes: Conexión a bases de datos SQL, NoSQL, archivos planos en Azure Data Lake Storage (ADLS), APIs y otros servicios. Automatización de tareas: Desarrollo de procesos para orquestar workflows de datos utilizando herramientas del ecosistema Azure. El rol se enfoca en la ingeniería y optimización de pipelines de datos, facilitando la transformación de grandes volúmenes de datos y asegurando su disponibilidad para análisis avanzado. Todo esto en un entorno seguro, escalable y orientado a la excelencia operativa. Detalles de la posición: Oportunidad para trabajar en una empresa de tecnología multinacional, dando servicio al sector seguros o sector multicliente. Modalidad 100% remota. Contratación indefinida, con proyección de desarrollo profesional en proyectos innovadores. ¿Te interesa ser parte de este proyecto? ¡Postúlate y únete a nuestro equipo!

Detailed Job Search

Select location