La oferta de trabajo Arquitecto/a Big Data - Cloud ya no está disponible. Aquí tienes algunas ofertas similares:
  • 13/10/2021

    Madrid

    En Rawson España buscamos DATA ENGENEER LEAD para una importante oferta laboral en Madrid. Ofrecemos la oportunidad de formar parte de un gran proyecto empresarial en constante crecimiento y evolución. Descripción de la oferta Rol: Data Engeneer Lead Requisitos: Ingeniería o Licenciatura: Ingeniería, Matemáticas, ... Experiencia con Lenguajes de programación: Java, Python, Scala, ... Experiencia con bases de datos tradicionales (Oracle, Teradata) y SQL. Conocimientos avanzados de bases de datos NoSQL: Cassandra, HBase, Solr. Experiencia con tecnologías Big Data: Hadoop, Hive, Spark, Kafka. Experiencia trabajando con metodologías Ágiles (Scrum). Conocimientos avanzados de Linux (Shell scripting, awk, ...). Conocimientos de la distribución de Cloudera. Conocimientos de Gobierno de Datos. Conocimientos de Seguridad en plataformas Big Data. Capacidad de trabajar de manera autónoma mediante el cumplimiento de objetivos. Conocimientos en arquitecturas cloud en AWS. Inglés Avanzado. Experiencia Laboral: Experiencia de 5 años en empresas realizando una labor similar. Al menos 10 años de experiencia laboral. Al menos 2 años de experiencia en gestión de equipos. Funciones: Diseño de arquitecturas Big Data para cumplir los requisitos de negocio según las distintas plataformas que se dispone. Desarrollo de procesos complejos dominando las distintas tecnologías de Big Data. Capacidad de desarrollar y programar procesos de Big Data utilizando lenguajes como Scala, Java o Python. Capacidad para liderar un equipo de Data Engineering compuestos por Data Engineers Juniors y/o externos. Seguir y crear buenas prácticas e impulsar su implementación en los proyectos. Condiciones Laborales: Lugar de Trabajo: teletrabajo y 1 o 2 días en oficina Madrid. Tipo de Contrato: Indefinido. Salario: A convenir de acuerdo con la experiencia. Jornada estándar. Desarrollo profesional trabajando en grandes proyectos para los clientes más importantes a nivel nacional e internacional. Salarios competitivos y objetivo de permanencia a largo plazo. Trato personalizado y cercano basado en la confianza. ¡Únete al equipo Rawson España! / ¡Apúntate en nuestra oferta! / ¡Inscríbete, te estamos esperando!

  • 19/11/2021

    Madrid

    En Rawson BPO buscamos perfiles como: DevOps Imprescindible: Inglés: C1 Gran conocimiento de al menos uno de los siguientes lenguajes de programación y ecosistemas respectivos: Java, Kotlin, Python Experiencia con Kubernetes y / o Openshift y herramientas que habilitan la infraestructura como código, p. Ej. Terraform o AWS CloudFormation Experiencia práctica con cualquiera de las soluciones de contenedores existentes, p. Ej. Docker, podman o CoreOS Experiencia práctica con AWS u otros proveedores de nube Experiencia práctica trabajando en el ecosistema Linux Conocimiento y experiencia con entornos CI / CD (Jenkins, SonarQube, Nexus ...) Git / Gitflow Observaciones: Salario a convenir Contrato a termino indefinido Trabajo remoto

  • 21/10/2021

    Cataluña

    How to apply You can click on the button above and below to open your inbox directly, if that doesn't work just copy and paste the email address written above. We are looking forward to receiving your application! About us fundcraft is a fast-moving fintech / regtech start-up with a dedicated team of investment fund experts, developers and data scientists who believe in technology's disruptive impact. We will leverage our different backgrounds to rethink and will reinvent fund services to change the way they are delivered and experienced. We are fully committed to making fundcraft a leader in fund services. The challenges you'll help to tackle You will have the opportunity to be an integral part of the team in a fast-paced work environment. Within the team, you will report to the Head of Data Science: You will participate in the design and implementation of pipelines for data processing You will work on the adaptation of data to be imported into our data model/ERP You will participate in the design and implementation of Business Intelligence and Reporting systems You will integrate external APIs such as AWS services, Odoo etc The impact you'll have fundcraft will revolutionise fund management by providing tech-powered fund services. We will leverage our proprietary platform to give fund managers back control and transparency over their fund services in a collaborative working environment where all relevant services are available one click away. Who you are You show adaptability, flexibility, proactivity, and willingness to work as part of a team You have experience with the Python Data Stack (numpy, scipy, pandas, scikit-learn, matplotlib etc.) Experience in Jupyter notebooks is an asset Experience in Tableau, Google Data Studio and other Business Intelligence platforms is an asset Experience in Big Data platforms (Apache Spark, Amazon QuickSight, etc.,) is an asset You possess excellent verbal and written communication skills in English. The knowledge of German/French will be an asset You display a positive and enthusiastic attitude Finally, you have an amazing sense of humor :) What we can offer you An entrepreneurial working environment giving priority to teamwork A multicultural environment where we promote diversity, talent & ideas The ability to work and interact with a wide variety of specialists Internal training and career development ‍ Come and join us!

  • 13/10/2021

    Madrid

    En Rawson BPO buscamos DEVOPS CON C++ con conocimientos imprescindibles en C++, Jenkins, Git Perfil con experiencia en Sistemas Operativos Windows y Linux, experiencia desarrollando C++ y CMake y experiencia de desarrollo Python Conocimientos deseables Conocimientos de infraestructuras Cloud (AWS) Conocimientos de Groovy Experiencia en el entorno financiero Postulate para conocer mas sobre la oferta y los beneficios que Rawson tiene para ti.

  • 21/10/2021

    Madrid

    en GRUPO DIGITAL buscamos para proyecto estable en Madrid: BigData- Cloudera Funciones Trabajos en el área de Smart Data donde se configurarán los servicios de Cloudera y la infraestructura, la sincronización de datos entre clusters, así como la monitorización y el mantenimiento de la plataforma, gestionando los usuarios y el tunning de los servicios. Requisitos Más de 5 años de experiencia cómo Administrador de Big Data con Cloudera. Gestión de Cloudera 5 y 7 Instalación y administración de los distintos servicios que ofrece Cloudera cómo HBase, Hive, Spark, Yarn, Sentry, Flume, Nifi, etc. > Securización con Kerberos. Migración de entornos. Deseable: Admin Maquinas Linux Conocimiento herramientas: Remedy, Jira, Metodologia Agile. detalles en entrevista www.grupodigital.eu Administrador de Big Data con Cloudera.

  • 04/10/2021

    Madrid

    Funciones En Sopra Steria trabajamos para hacer posible la transformación digital de nuestros clientes y para conseguirlo necesitamos seguir creciendo y sumando gracias a personas como tú. Con presencia en más de 25 países y con más de 45.000 colaboradores, nuestra misión es unir talento y proyectos, tratando de ayudarte a que encuentres un lugar en el que poder desarrollar todo tu potencial. Requisitos No buscamos la perfección pero, nos gustaría que tuvieras... Al menos 2 años de experiencia en administración de AWS Experiencia en diseño de soluciones con AWS. Formación en SysOps Administrator (Se valora certificación) Conocimientos y experiencia en IaC/Automatización con alguna de las siguientes herramientas: AWS Cloud Formation, Terraform, Ansible, Salt... Conocimientos y experiencia en despliegue de entornos IaaS con EC2, S3, Load Balancer... Conocimientos base de comunicaciones (VPC, VPN, Peering,...). Valorable experiencia en entornos con AWS Direct Connect. Conocimiento y experiencia en plataformas de contenedores de AWS (ECS, EKS) Conocimientos y experiencia en soluciones de AWS basadas en Elastic BeanStalk. Conocimientos de SO Linux/Windows Conocimientos en algunos de los siguientes productos (HAProxy, NGINX, APACHE, TOMCAT, Jboos...) Conocimientos de soluciones de monitorización con alguna de las siguientes herramientas (AWS Cloud Watch, Dynatrace, Elastic, SPLUNK...) Se valora: Experiencia en CI/CD con alguna de las siguientes herramientas: AWS CodeStar, AWS CodeCommit, AWS CodeBuild, Jenkins, GIT... Conocimientos de herramientas de migración a AWS Cloud Endure, AWS DMS, AWS SMS Haber participado en alguna migración a AWS. Conocimiento de arquitecturas EDA. Conocimiento de Service Mesh y Kafka. Conocimientos y experiencia en Diseño e implementación de Landing Zone. Conocimiento de herramientas de gestión de secretos tipo Vault. Conocimientos en plataforma de contenedores como Openshift o Rancher sobre AWS. Se ofrece ¿Qué ofrecemos? Porque sabemos lo que necesitas... Facilidades para ti, para tu tiempo. ¡No todo va a ser trabajo! Participa en proyectos retadores. ¿Te animas a aprender algo nuevo? Crece con un programa de desarrollo continúo personalizado Disfruta de nuestros Beneficios y accede al Plan de retribución flexible Smart Sessions ¿Tienes algo que contarnos? Para que te sientas parte del equipo: GymForLess, pádel, running... y un fisio por si acaso! ¡Atrévete a trabajar de una forma diferente y conócenos!

  • 25/10/2021

    Madrid

    En RawsonBPO estamos buscando un ARQUITECTO con experiencia en BIG DATA para un importante proyecto en Madrid. Conocimientos imprescindibles: DevOps (CI/CD) Integración: APIs, JDBC, VPN... Azure Iac (infraestructura como código) Experiencia en las tecnologías GCP y Azure Centro de acciones operativas para el mantenimiento y soporte de ambas plataformas tecnológicas de datos (Azure y GCP) Punto único de resolución de problemas técnicos Asesoramiento en tecnologías e implementaciones para tener un ecosistema unificado Servicio operativo para mantener todos los procesos ya desplegados Observaciones: Contrato indefinido Remoto Salario a convenir

  • 11/11/2021

    Madrid

    Seleecionamos Senior Data Scientist para participar en proyecto de fabricante de software Big Data líder en su sector. Tareas: Diseñar y desarrollar procesos y módulos en lenguaje Python para la construcción de un framework para la generación de modelos analíticos de forma automatizada. Participar y supervisar la generación demodelos analíticos entrenados con diversas técnicas analíticas (Random Forest, Logit regression, Decission Trees, Naive Bayes, Voting Classifier entre otras) Realizar los correspondientes test para asegurar la robustez del modelo y prevenir sobre-entrenamiento de los mismos. Monitorizar el histórico de ejecución de los modelos y su rendimiento, Debe tener conocimientos técnicos específicos y experiencia práctica en un entorno Hadoop (Cloudera), incluyendo los sistemas operativos, file systems y las herramientas correspondientes. Generar Documentación técnica asociada. Elaboración de informes de seguimiento requeridos. Requisitos: +5 años de experiencia en Diseño y Desarrollo de programas en lenguaje Python y/o R asociados a modelos analíticos. Experiencia en metodologías y herramientas de Data Science incluyendo Python y/o R Nociones de programación (Java), Linux y shell scripting. Conocimiento de tecnologías basadas en Big Data Conocimiento de herramientas de Modelado de Datos (ERWIN o similar) - deseable. Conocimiento de herramientas ETL y BI - deseable. Conocimientos de Arquitectura de sistemas - deseable. Ofrecemos: Contrato modalidad freelance. Tarifa: 220-260 eur/jornada. Recurrencia en proyectos. Buen ambiente de trabajo. Grandes posibilidades de proyección profesional. Lugar de trabajo: Madrid híbrido

  • 10/11/2021

    Madrid

    Actualmente seleccionamos Data Architect / Data Engineer para proyecto de gran alcance internacional REQUISITOS licenciatura en Ciencias de la Computación, Ingeniería o campo relacionado. Al menos 5 años de experiencia laboral en una o varias áreas de TI. Event-sourcing y arquitecturas asíncronas con Apache Kafka. Diseño y orientación de arquitectura de software. Experiencia en desarrollo de software. Arquitectura empresarial y patrones de integración. Análisis de negocio y conocimiento funcional bancario. Infraestructura de TI y desarrollo en la nube. Patrones de nubes. Conocimiento de AWS CI/CD. Mentalidad lean. Seguridad de aplicaciones e infraestructura en la nube Inglés y español fluido tanto escrito como oral. Si estás buscando un cambio profesional y quieres participar en proyectos innovadores con tecnologías punteras, ¡¡anímate e inscríbete!!

  • 28/10/2021

    Madrid

    Desde Grupo Digital buscamos un Data senior architect - KAFKA Role Description The Data senior architect would need to have at least 5 years of experience. In this role, you will primarily focus on working with OpenShift Container Platform ecosystem and Kafka clusters for the customers on premise. Thus, the candidate should be able to work with the Project team in consultancy and assessment of current BI Kafka deployments and execute services with seniority: Evolution of current BI architecture in version OCP 3.11 to OCP 4.x Consulting of applications and needs for the evolution of the current BI platform o Network and persistent storage need assessment with performance metrics o Evaluation of dependencies on external connectivities o Node Affinity Needs Assessment Study of the evolution of the current environment to an on-premises/Cloud environment o Implications associated with the integration of a cabin storage service o Deploy PoCs for taking metrics in an on-premises environment: storage and network o Implications associated with the evolution to the Cloud of storage, external connectivity and availability zones Engage with customer experts and architects to envision mid-term hoped-for architecture and take architectural decisions around Kafka. Principle Responsibilities Focal point and lead meetings with customer around event streaming platform Kafka Deploy architectural designs and production ready Openshift platforms with Kafka clusters deployed on it. Experience (Mandatory) Expertise with Containers platforms Expertise with Kubernetes. Expertise in RedHat Linux administration. Expertise in Kafka (Confluent, IBM Event Streams) Experience with cloud environments and virtualization Ability to succeed in a fast-paced, high demand environment Excellent oral and written communication skills. English language skills is mandatory Demonstrates strong customer service awareness and orientation Exemplifies leadership characteristics in support of corporate objectives Education Training, or Certification Bachelor's Degree in computer science or engineering preferred Kafka certification desired RedHat certifications in Linux and OpenShift administration desired Core Competencies - Communicates with Impact; Demonstrates Customer Focus; Demonstrates Openness; Integrity and Trust; Embraces Innovation and Change Level Specific Competencies - Aligns Performance for Success. - Ensures Operational/Process Excellence. Education: Bachelor's degree in Computer Science, Electrical/Electronic Engineering, Information Technology or another related field or Equivalent Experience: Minimum 5 years in event streaming platform Kafka Lugar de trabajo: ESPAÑA ... se estudian candidaturas a nivel nacional . jornada completa Inicio: NOVIEMBRE 2021 En cuanto a nosotros... amplia informacion en www.grupodigital.eu Si nuestra oferta te atrae, no dudes en inscribirte.