Treball Data Engineer API en 28040 Madrid
Estás son las últimas ofertas de trabajo de Data Engineer API en 28040 Madrid encontradas.
treballs
-
17/10/2024
Madrid
Description: Desde Grupo Digital, estamos en búsqueda de un perfil Data Engineer con Azure para uno de nuestros clientes del sector energético. Ofrecemos: Duración proyecto: Estable. Contrato indefinido. Ubicación: España. Imprescindible residir en territorio español. Horario: 09:00 - 18:00 L-J / 09:00 - 15:00 V Horario/jornada en verano: 08:00-15:00 L-V Banda salarial: Valorable en función de la experiencia aportada. Resumen del Rol: Data Engineer G3 / G4 (en base a los conocimientos) para entorno Microsoft Azure, con conocimientos avanzados a nivel de programación. Años de experiencia: tres (3) Conocimientos imprescindibles (tecnología): Frontend: Vue + TypeScript Backend: .NET + Python ( 3.11), así como conocimientos de programación API. Deberá estar familiarizado/a con el control de versiones con Git, así como la integración y despliegue en ecosistema Azure. Deberá estar acostumbrado/a a la contenerización de aplicaciones para su puesta en entornos Cloud de Azure, así como disponibilización en Kubernetes. Conocimientos deseables (tecnología): Conocimiento y manejo en el uso de aplicaciones con Docker y Kubernetes, así como la implementación (CI/CD de la parte back y del front). Las aplicaciones en el ecosistema solicitado consisten en un frontal web basado en Vue donde se recuperan los datos haciendo uso de .Net para la solución de backend mediante la apificación y el manejo de Entity Framework, que se basa en el modelo-vista-controlador. Desde la solución de backend para el tratamiento de datos se puede proceder a la invocación de modelos predictivos desarrollados en Python. Se debe estar familiarizado con los procesos de autenticación y autorización basados en OAuth2 y OpenID Connect (OIDC), como en cualquier flujo de apificación donde se requiere el uso de Tokens de validación (como en cualquier aplicación de apificación). Metodología de Trabajo: Agile SOBRE NOSOTROS Grupo Digital Somos un grupo de empresas tecnológicas, formado actualmente por unos 200 profesionales, en distintas áreas: desarrollo, sistemas, ingeniería automática, consultoría... Si quieres impulsar tu carrera con un proyecto único de la mano de una multinacional de primerísimo nivel, no dudes en presentar tu candidatura. ¡Te esperamos!
-
17/09/2024
Madrid, Un altre
Desde Sandav Consultores estamos en búsqueda de un Data Engineer para cliente ubicado en Madrid (zona de Arganzuela) con modalidad híbrida de trabajo (un mes se trabajará 2 días de manera presencial y 3 días de teletrabajo a la semana) y otro mes 100% remoto. Y así sucesivamente meses alternos. Desarrollo de Modelado de Datos y Pipelines con Spark y Scala para ingesta y transformación. datos de diferentes fuentes (temas de Kafka, API, HDFS, bases de datos estructuradas, archivos) en Le siguen HDFS, IBM Cloud Storage (generalmente en formato parquet) o bases de datos SQL/NOSQL. Gestionar soluciones de almacenamiento de big data en la plataforma (HDFS, IBM Cloud Storage, estructurado y bases de datos no estructuradas) Transformación y Calidad de Datos: implementar transformación de datos y control de calidad. procesos para garantizar la coherencia y precisión de los datos. Utilizar lenguajes de programación como Scala y SQL. Y bibliotecas como Spark para operaciones de enriquecimiento y transformación de datos. Implementación de canales de CI/CD: configurar canales de CI/CD para automatizar la implementación, unidad pruebas y gestión del desarrollo. Migración de infraestructura: migrar la infraestructura de Hadoop existente a la infraestructura de nube en Kubernetes Engine, Object Storage (almacenamiento en la nube de IBM), Spark como servicio en Scala (para construir las canalizaciones de datos) y Airflow como servicio (para orquestar y programar los datos tuberías) Implementación de esquemas, consultas y vistas en bases de datos SQL/NOSQL como Oracle, Postgres o MongoDB Desarrollar y configurar la programación de canalizaciones de datos con una combinación de scripts de shell. y AirFlow como servicio Pruebas de validación: realizar pruebas unitarias y de validación para garantizar la precisión y la integridad. Documentación: redactar documentación técnica (especificaciones, documentos operativos) para asegurar la capitalización del conocimiento. Se ofrece: Proyecto estable. Contrato indefinido. Modalidad de trabajo: híbrida (un mes se trabajará 2 días de manera presencial y 3 días de teletrabajo a la semana) y otro mes 100% remoto. Y así sucesivamente meses alternos. Horario: Jornada completa de lunes-jueves (en principio de 09-18h) y viernes y verano intensiva Tienen flexibilidad total en cuanto a horario para entrar entre las 8-9h, 1 hora para comer y salir sobre las 17:30. Son 8,5 horas al día para acumular de cara a los días de jornadas intensivas. Salario: 39.000EUR - 41.000EUR / brutos anuales (en función de la experiencia aportada). Se valoran candidaturas por salarios superiores en función de la experiencia). Seguro médico opcional que incluye seguro dental y psicología y retribución flexible a nivel de tickets restaurante. Cursos de formación gratuita.