01/03/2023
Madrid
Desde beonit trabajamos con una importante compañía de tecnología de la información bancaria que diseña, desarrolla y gestiona soluciones y servicios para diferentes entidades financieras. Estamos buscando un Data Analytics que trabaje con un ETL Tool vía PySpark de datos desde un Data Warehouse Oracle y Logs en XML y JSON a Datalake en HDFS, Hive y HBase. Ayudando a implantar los modelos predictivos de venta, upselling, downselling, cross-selling y fuga de diferentes productos bancarios, aplicando inteligencia artificial. ¿Cuál será tu misión? Gestionar la experiencia en creación de consultas para facilitar la explotación de la información por parte del cliente solicitante. Qué necesitamos de ti Base de datos: Oracle, MySQL, Hbase. Lenguajes de programación: SQL, JavaScript, R, Python y Spark. Conocimientos en herramientas Big Data: Hadoop, Spark, Hive, Real Time (Spark Streaming, Kafka, etc.) Experiencia en alguna plataforma de Business Intelligence (IBI, MicroStrategy, Qlick, Tableau, Grafana...) Experiencia en entornos bancarios. Experiencia en creación de consultas para facilitar la explotación de la información por parte del cliente solicitante. Qué podemos ofrecerte Crecimiento en un ambiente profesional en una multinacional junto a un equipo pionero. Formar parte de la transformación digital trabajando desde donde tú quieras y planificando tu propia gestión del tiempo. Si crees que eres la persona adecuada, no dejes pasar esta oportunidad. ¡Queremos conocerte!
14/02/2023
Catalunya, Cantàbria, Madrid
¿Quieres formar parte de una empresa de consultoría consolidada en el ámbito nacional y en pleno desarrollo internacional? ¿Te interesa el mundo tecnológico relacionado con proyectos innovadores de Big Data, Analitica Avanzada, Cloud Computing y Transformación Digital? Si la respuesta es sí, entonces Innova-tsn podría ajustarse a lo que buscas. En Innova-tsn buscamos incorporar a nuestra sede en Madrid o Barcelona un/a Consultor/a que tenga entre 2 y 3 años de experiencia en proyectos analíticos trabajando con técnicas de Machine Learning y realización de modelos estadísticos con R y Python. Aunque no cumplas todos los requisitos que mencionamos pero crees que puedes encajar bien en el proyecto... ¡Apúntate! No buscamos una persona que cumpla una checklist, pero os dejamos las cosas que más valoramos: ¿Cómo nos imaginamos que eres? Una persona graduada en Matemáticas o con experiencia equivalente (Estadísticas, Ingeniería, Física, Economía...). Con conocimiento del desarrollo, mantenimiento y monitorización de modelos de Machine Learning (Regresión, Clustering, XGBoost, Random Forest...) y técnicas de Forecasting. Necesitamos que domines alguno de estos lenguajes: Python, R, SAS, Scala o PySpark. ¿Tienes conocimiento en la explotación de Bases de Datos Relacionales y lenguaje SQL? Y por último, tener conocimiento avanzado de técnicas de tratamiento y preparación de datos y analítica descriptiva. Hay más aspectos que valoraremos de manera muy positiva, pero no indispensables: Experiencia en Desarrollo de Redes Neuronales en frameworks como Keras, Pytorch, Fastai. Haber usado entornos colaborativos como Github o Gitlab. Experiencia en MLOps. ¿Conoces el entorno Cloud? Azure, AWS... haber trabajado con ellos o tener una certificación es un gran +1. Experiencia en Reporting/Visualización con herramientas de BI (PowerBI, Tableau, Qlik, AWS Quicksight...) ¿Qué ofrecemos nosotros? Retribución flexible (cheques restaurant y guardería). Seguro médico. Modelo híbrido de Teletrabajo. Colaborar en grandes proyectos del sector. Formación a cargo de la empresa (Cursos, Certificaciones...). Plan de carrera asociado al desempeño. Pertenecer a un equipo especializado técnicamente.