Ingeniero de Big Data / Machine Learning
Job Offer Description
Estamos buscando un Ingeniero de Big Data / Machine Learning para el Desarrollo de planes de acción, especificaciones técnicas para desarrollar pliegos y seguimiento de iniciativas en el campo de la mejora de la Administración Electrónica para la Transformación Digital.
Rol:
- Ingeniero de Big Data / Machine Learning
Requisitos:
- Consultoría y análisis de soluciones complejas en general, siempre en el ámbito TIC (mínimo cinco (5) años).
- Conocimiento en Arquitectura o ingeniería de datos de cara a implantación de proyectos de Big Data y/o Machine Learning (mínimo tres (3) años).
- Conocimiento de plataformas de Big Data (Hadoop, Casandra, etc) y procesamiento de altos volúmenes de información (Streams) tipo Kafka, Spark, Storm, MapReduce.
- Diseño e implementación de infraestructuras informáticas complejas (sistemas de información).
- Gestión de proyectos y programas.
- Elaboración de especificaciones técnicas ligadas a la contratación pública, y realización en general de pliegos de contratación.
Condiciones Laborales:
- Lugar de Trabajo: Madrid, España.
- Tipo de Contrato: A Término Indefinido.
- Salario: A convenir de acuerdo a la experiencia.
Ingeniería y consultoría de referencia en el ámbito de la movilidad sostenible y la transformación digital
Ineco lleva 55 años diseñando soluciones integrales, innovadoras y tecnológicas que han permitido avanzar hacia un nuevo modelo de movilidad más sostenible y más segura. Soluciones que contribuyen de manera directa en la mejora de la calidad de vida de millones de personas.
Con un equipo multidisciplinar de 5.500 profesionales, la empresa está presente en todos los continentes donde despliega su experiencia y capacidad para afrontar trabajos técnicamente complejos gracias a su conocimiento especializado y a la aplicación de la tecnología más avanzada y vanguardista.
Job offers similar to Ingeniero de Big Data / Machine Learning
-
Experto/a de Implementación de IA y Análisis de Datos
Ineco
Madrid
Desde INECO estamos actualmente inmersos en la transformación digital de diferentes organismos y administraciones de la AGE e incrementando el equipo dedicado a toda la implementación de funcionalidades innovadoras dentro del área de IA y la implantación de nuevos sistemas de automatismos para mejorar el uso de datos y herramientas. Buscamos profesionales dedicados al tratamiento de datos, tanto Analistas como Ingeniero/a de Datos. Las funciones en los diferentes encargos serán desde integración de los datos en sistemas, como redefinir y automatizar la manera de tratar a los mismos, el desarrollo de nuevas IA que automaticen ciertos procesos como la reingeniería interna de datos para la implantación de nuevas herramientas de datos no relacionales. Trabajarías en el departamento encargado de la aplicación tecnológica del dato participando en algunos casos en la creación de los laboratorios de datos. Rol: Experto/a de Implementación de IA y Análisis de Datos Funciones: 1. Extracción de datos de diferentes fuentes de información. Limpieza de los dato relacionales y no relacionales Procesamiento de datos y su interpretación de la forma más adecuada a partir de relaciones estadísticas, análisis matemáticos, modelos predictivos etc. que permitan sacar conclusiones orientadas a negocio. Desarrollo y modificación de aplicaciones web mediante HTML, CSS y Java Script. 2. Creación de Algoritmos: Creación de nuevos algortimos para aumentar la capacidad de la IA Creación de nuesvas funcionales de las IA Creación de automatismos para el tratamiento del dato. 3. Diseño y participación en nuevo modelos de tratamiento del dato así como su integración en los sistemas Experiencia en: Al menos tres (3) años de experiencia en cada una de estas tecnologías: Python. CSS. HTML. JavaScript. Diseño de páginas web. Pandas, keros o similar... Capacidad de aprendizaje. Debe ser creativo y estar preparado para establecer confianza entre los miembros de distintos departamentos. Conocimientos de: Business Intelligence (BI) con herramientas analíticas: Qlik, Power BI. Machine learning Deep learning Si estás interesado/a en incorporarte en un departamento que está en continua evolución no dudes en apuntarte a la oferta.
-
Data Architect (Full Remote)
Sopra Steria
Catalonia
Funciones Estarás Integrado en el equipo de arquitectura de esta gran multinacional suiza del sector seguros, para la evolución de la arquitectura del data lake. Rol: Data Architect (Full Remote) Requisitos: Cloud: dominio de AWS en general y capacidad de aplicar soluciones basadas en la IaC utilizando AWS CDK. Data Lake: domino de servicios del ambito de datos: S3, Glue catalogue, Lakeformation, ETL Glue y EMR, MSK (Kafka) Almacenamiento: parquet y iceberg, Lenguages: Spark Python, Java. Herramientas de calidad de datos: Glue /Great Expectations/ Deequ o similar Movimiento de datos: NIFI Se ofrece: Facilidades para ti, para tu tiempo. ¡No todo va a ser trabajo! Participa en proyectos retadores. ¿Te animas a aprender algo nuevo? Crece con un programa de desarrollo continúo personalizado Disfruta de nuestros Beneficios y accede al Plan de retribución flexible ¡Atrévete a trabajar de una forma diferente y conócenos!
-
Platform Architect
BME
Catalonia, Madrid
Are you passionate about modern technology? Do you want to work at the heart of the financial industry? Then, our Trade Repositories IT team wants to hear from you. We are responsible for providing technology services to SIX REGIS-TR Trade Repositories business. Our goal is to build and maintain a cloud ready software using the latest technologies: Java Spring Boot, Angular, APIs (Kong), OCP4, Kafka, ArgoCD, VAULT, MS SQL Server Cluster, Cloduera Cluster (Kudu, HDFS and Spark), Gitlab, JFrog Artifactory You will act as a platform architect and you will cooperate with our software architects, software, DevOps and Cloudera engineers. Role: Platform Architect What You Will Do Act as a Platform Architect. Design and manage OCP namespaces, also Microservices Architecture with Patterns & S.O.L.I.D. Principles Ensuring correct implementation in components connectivity. Always putting on eye in security, resilience and costs. Spread DevOps standards and strategies to across the teams. Support in the analysis of functional requirements to bring them to detailed technical specifications. What You Bring Capability to coordinate multidisciplinary teams and excellent analytical skills both in English and Spanish verbal and written. More 10 years work experience of IT in general/ 5+ years of working as an Architect Actively shape and establish enterprise architecture skills and ways of working across teams. Keep up-to-date with technology trends and our business strategy and provide guidance, recommendations and support to business and IT stakeholders Gitlab CI, Openshift, ArgoCD, Agile framework, RedHat
-
Spark / Scala Data Engineer (Teletrabajo)
SANDAV
Andalusia, Aragon, Asturias, Basque Country, Cantabria, Castile and Leon, Castile-La Mancha, Catalonia, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Valencian Community, Non-peninsular
Buscamos Ingeniero de Datos con experiencia ETL con Scala y Spark. Experiencia afín de en torno a tres (3) años aproximadamente y/o en Adelante. Se trata de interesantes proyectos en ámbitos de Industria 4.0. (No es necesario aportar un nivel alto de inglés, con un nivel técnico puede ser suficiente). Rol: Spark / Scala Data Engineer (Teletrabajo) Ofrecemos: Contratación por Nosotros: Sandav Consultores en prestación de servicios a cliente consolidado en sus sector. Horarios habituales de oficina con posibilidades de flexibilidad de entrada / Salida, jornada intensiva Viernes y verano. Banda Salarial: Abierta y acorde a perfil / experiencia: entre rangos desde 35.000, hasta ámbitos de entornos de 50.000 SBA. Perfil mínimo de base: Experiencia de en torno a los tres (3) años en procesos de implementación y despliegue de procesos ETL en Aplictivos Big Data (Spark) Experiencia en ETL con Scala (al menos uno (1) a dos (2) años precisamente con este punto) Experiencia / conocimiento de ámbitos Azure (Azure DevOps, CI/CD artefactos....) Aspectos de valor: Experiencias en Azure Data Factory, Azure Databricks... Componentes Azure. Experiencias / conocimientos en Tecnologías como Maven / Gradle (generación de artefactos). Práctica en Agile / Scrum. SANDAV es una empresa que basa la relación con sus empleados en la INTEGRIDAD, que en resumen quiere decir que CUMPLIMOS LO PROMETIDO. Para más información: sandavteam.com
Job Offer summary
Ingeniero de Big Data / Machine Learning
- Ref: 15452
- Madrid, España
- Permanent, Fixed term (> 6 months)
- > 2 years experience
- Vocational Training (Mid. or Sup.)
- 0
Create your ticjob CV
If you are not yet registered as a candidate, publish your CV, find the best offers in the ICT sector and let companies find you
Create your free account