La oferta de trabajo Arquitecto Big Data con Ingles ya no está disponible. Aquí tienes algunas ofertas similares:
  • 15/06/2022

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    We are a new born venture builder, focused on building new businesses, trying to revolutionize the related industries using the benefits of Decentralized Ledger Technologies (DLT) and Blockchain. We see blockchain, smart contracts as a meta-technology with a huge potential and real applicability. Based on our experience on Banking, Regulation, Product management and Software development we will try to shape the future. To be able to reach our goals, building the right team is the base for success. A good venture will be consequence of having the best performing team. We are creating an environment where you can get your maximun potential, where people matters and where transparency is on the ADN. Requirements: We are searching for good people that, first of all, fit our culture and mindset, and second, add their experience and expertise to our team. These are the skills we are looking for: Your attitude will determine our altitude. Building new ideas, based on complex technologies and industries, will be challenging. The team is key for success and your ideas, positivity and group focus, will make the difference. We are interested in your knowledge but your capacity is more important for us. The are tons of technologies around... The way you tackle and use them, will make the difference. We are trying to get the right balance between attitude and aptitude. Research and learning capabilities. Blockchain space is very new and is evolving very fast. Staying on the trends is key, to help us to make the right decisions. Distributed Ledger Technology and Dapp development experience is very welcome! ... But Don't worry if you have no idea. We will teach you what we know, and learn together. You think that understanding the business domain, language and opportunities is key to define the best solutions. Minimum 3.5 years experience in Data aggregation, ETL implementation, and Data Visualization Minimum 3-5 years experience in Backend development languages. Python, Java and others, You are or willing to be, a language polyglot, due to the importance of getting the best of different technological stacks to create good solutions. Agile development experience with Lean, Scrum, XP etc. Data engineering Open Source tools knowledge and daily usage You have experience in data collection automation work from REST/GraphQL APIs, Flat Files, Database, etc. You are also comfortable with GIT and GitHub. Relational and Non relational database development experience. Event streaming architecture experience, gathering events and building data storage ELK, RabbitMQ handson experience Experience with developing Data lakes in AWS Experience with Visualization tools and ecosystems like apache superset, tableau, looker, power bi, treasure data Proven knowledge with third party data gathering, Google Analytics, Segment, Email providers, Apis etc Experience with working with data pipelines, ETLs like AWS glue Experience with database technologies such as Postgres, MongoDB, Apache Druid, Neo4J. Redshift Experience with Storage systems e.g AWS S3, Parquet Files, time series data Experience deploying with cloud infrastructure providers like AWS Knowledge of big data security best practices Experience working with multiple layer7 protocols, GraphQL, HTTP-Rest, GRPC Fluent English Plus: If you fit these specs, you are ready to be part of the team! But if you can bring one or several of the following as a plus, what are you waiting to work with us? You are passionate about automation. Aspiring Software Craftsman. NFT market proven experience. Event driven architecture design experience. Domain Driven Design practitioner. Experience with blockchain technologie Interest / experience with Big data topics, experience with Docker Experience in deploying blockchain infrastructure Experience building SaaS applications Offer: Challenging projects and enviroment. Innovation and build new business with your own hands. Flat organization and short decision paths. Flexible working hours. Remote working (Based on team needs). Remote work financial aid. We are challenge oriented. Social benefits: Flexible Payment Plan, medical insurance and others. 25 vacation days. 2 free days for conference/courses + Budget.

  • 08/06/2022

    Madrid

    Seleccionamos Data Engineer para participar en proyecto de fabricante de software Big Data líder en su sector. Requisitos: Al menos 1 año de experiencia en Diseño y Desarrollo de procesos en entornos Big Data en particular con SCALA y SPARK (Cloudera). Experiencia en entornos Hadoop , Spark, SCALA, Kafka , Hive, Java, Impala, Flume y otras herramientas delecosistema Cloudera. Conocimientos en servicios de administración y operación. Buen conocimiento de Unix y habilidades SQL y scripting y programación. Nivel medio de inglés para interactuar con otros equipos de manera verbal y escrita. Deseables: Conocimientos en herramientas de integración tecnológicas como herramientas de automatización, control deprocesos, despliegue y planificación (Git , Jenkins, Nexus, JIRA, Confluence ). Conocimientos de Arquitectura de sistemas Conocimientos en bases de datos tanto NoSql como relacionales (Oracle). Conocimiento de herramientas de Modelado de Datos (ERWIN o similar) Conocimiento de herramientas ETL y BI Funciones: Diseñar, desarrollar y depurar procesos y scripts en SCALA & SPARK para la ingesta de fuentes de datos de formaautomatizada y para realizar los cálculos requeridos. Conocimientos de las siguientes herramientas: GitLab, JIRA, Nexus, Jenkins, Confluence, Diseña y desarrolla código, scripts, flujos de datos, e instalación de software. Identifica e ingesta nuevas fuentes de datos en la plataforma de Big Data Integración nuevas fuentes de información Generación de documentación asociada a los interfaces desarrollados Soporte en posibles procesos de tratamiento y réplica de datos, Debe tener conocimientos técnicos específicos y experiencia práctica de al menos un año trabajando en un entorno Hadoop (Cloudera), incluyendo los sistemas operativos, file systems y las herramientas correspondientes. Generar Documentación técnica asociada, Elaboración de informes de seguimiento requeridos Se ofrece: Contrato modalidad freelance Tarifa: 230-280 eur/jornada en función de experiencia aportada Proyecto a largo plazo Recurrencia en proyectos Grandes posibilidades de desarrollo profesional Lugar de trabajo: Madrid.

  • 16/06/2022

    Madrid

    Estamos buscando un Ingeniero de Big Data / Machine Learning para el Desarrollo de planes de acción, especificaciones técnicas para desarrollar pliegos y seguimiento de iniciativas en el campo de la mejora de la Administración Electrónica para la Transformación Digital. REQUISITOS Consultoría y análisis de soluciones complejas en general, siempre en el ámbito TIC (mínimo 5 años). Conocimiento en Arquitectura o ingeniería de datos de cara a implantación de proyectos de Big Data y/o Machine Learning (mínimo 3 años). Conocimiento de plataformas de Big Data (Hadoop, Casandra, etc) y procesamiento de altos volúmenes de información (Streams) tipo Kafka, Spark, Storm, MapReduce. Diseño e implementación de infraestructuras informáticas complejas (sistemas de información). Gestión de proyectos y programas. Elaboración de especificaciones técnicas ligadas a la contratación pública, y realización en general de pliegos de contratación.

  • 20/06/2022

    Madrid

    En INECO ofrecemos oportunidades profesionales para nuestra Subdirección de Tecnologías de la Información, especializada en proyectos y productos informáticos multidisciplinares para la Administración Pública. Estamos buscando talento para unirse a nosotros en la participación de un gran proyecto retador y tecnológicamente puntero. En concreto formarías parte de un estupendo equipo de trabajo dinámico y colaborativo, dedicados a la innovación y mejora continua de varios servicios y aplicaciones CORE para un importante organismo público. Las funciones a desempeñar son: Análisis y Programación de aplicaciones. Interlocución con usuarios para establecer los requisitos de las aplicaciones en que participe. Supervisión del trabajo de otros miembros del equipo Revisión y actualización de la Arquitectura de aplicaciones, así como difusión y refuerzo de su utilización en diferentes equipos que tengan que aplicarla en una organización. ¿Qué te podemos ofrecer? Incorporarte a una compañía pública referente en la ingeniería y consultoría del transporte con más de 3.000 profesionales Conciliación entre la vida personal y profesional. Disponemos de 18 medidas de conciliación, entre las que destacan, la flexibilidad horaria, teletrabajo, las políticas de reuniones y de luces apagadas, asistencia médica con familiares de primer grado o visita con el responsable educativo de tu hijo. Acceso al club de empleados donde te podrás beneficiar de numerosos descuentos y promociones exclusivos para nuestros profesionales. Formar parte de una empresa como INECO se traduce en oportunidad: la diversidad de oferta con la que contamos significa que puedes desarrollar tu trayectoria profesional en el ámbito que mejor responda a tus intereses, así como ir aprendiendo en las distintas áreas de la compañía. En Ineco apostamos por el talento que tiene como base entornos de trabajo retadores y estimulantes que promuevan el desarrollo personal y profesional de nuestros empleados, garantizando el cumplimiento de los principios de igualdad, mérito y capacidad, así como la trasparencia, objetividad y la igualdad de oportunidades. En Ineco estamos comprometidos con la protección del medio ambiente y con la mitigación de los efectos del cambio climático y nos sumamos al reto de la Agenda 2030 y los 17 ODS Mantenemos desde el año 2008 la adhesión a los Diez Principios del Pacto Mundial de Naciones Unidas, basados en el respeto y promoción de los derechos humanos, laborales, medioambientales y de lucha contra la corrupción. REQUISITOS Especificaciones EJB 1.0,2.0,3.0. Servicios WEB : Tecnologías SOAP (Axis,Spring WEB SERVICE). Tecnologías REST: JAX-RS,Spring MVC. Motores de persistencia: JPA (Hibernate,OpenJPA). Frameworks presentación: JSP, Struts 1, Struts 2, JSF 2.0. Conocimientos de Spring 3 Experiencia en definición y desarrollo de proyectos orientados a microservicios: Spring Boot,Spring Security, Apache KafKa, contenedores Docker, plataforma de despliegue de contenedores (Kubernetes), valorable experiencia en OpenShift. Experiencia en proyectos de migración de Arquitecturas Monolíticas a Arquitecturas distribuidas (orientación a servicios) . Experiencia en proyectos desarrollados en tecnologías SPA: Angular. Conocimiento de Servidores de Aplicaciones: WebSphere, Jboss,WebLogic. Conocimiento de BBDD relacionales (Oracle). Herramientas y métodos de Integración continua y Despliegue Continuo (IC/DC): Jenkins, integración con GIT, Ansible o similares Herramientas de construcción ant, maven, gradle REQUISITOS DESEABLES Análisis y diseño de frameworks de desarrollo propios de organizaciones Experiencia en formación o evangelización tecnológica Experiencia en entornos CLOUD (AWS,Azure...). Metodologías de desarrollo agile, e integración con Operaciones (DevOps) Herramientas de automatización de pruebas funcionales Sistemas Middleware para la integración entre aplicaciones Experiencia en herramientas de API Management

  • 13/06/2022

    Madrid, Francia

    Desde Sandav Consultores estamos buscando Ingeniero de Desarrollo Web con unos 4 años de experiencia en desarrollo de aplicaciones para incorporarse en cliente ubicado en Madrid. Se requieren aportar experiencia en: Java 8. Deseable Java 11. Spring Framework con los módulos MVC, SpringBoot, Spring Data. Arquitectura hexagonal / Domain Driven Development. BDD y TDD: estar orientado a desarrollo basado en test. Tanto unitarios como de aceptación. Cucumber / Gherkin. CI/CD. Jenkins, Nexus, Sonar. Experiencia en arquitectura de Microservicios con comunicación asíncrona: Event Driven Architecture. Experiencia en Kafka. Infraestructura Cloud basada en AWS. Kubernetes. Inglés alto. El equipo está formado tanto por gente de España como por gente de Francia. Requisitos deseados Java 11. Spring Security, Se ofrece: Proyecto estable. Contrato indefinido. 100% teletrabajo. Formar parte de un proyecto a nivel internacional. Franja salarial acorde a la experiencia aportada.

  • 06/06/2022

    Comunidad Valenciana

    Funciones Sopra Steria works to enable our clients' digital transformation and to do so we need to keep growing and contributing thanks to people like you. Our employees agree on the work environment and the great one team that we are at Sopra Steria. With more than 46.000 people working in 25 countries, our mission is to connect talent and technology, trying to help you to find a place where you can grow and develop all your potential. We require a Data Engineer highly skilled in database and ETL data pipelines development. The incumbent will be responsible for the re-design and implementation of the set of automated ETL pipelines, implementation of the analytics of the platform operations and importing new data sources: Work with the team (technical Lead/Architect/other team members) and customer focal point to understand the business need and design/implement the technical data management solution. Assist and work with the Solution Architect and Senior Data Warehouse Specialist to develop, test and deliver the various Work - Packages as further detailed below under "deliverables". Troubleshoot and remediate data problems affecting availability and functionality. Generate and retain relevant technical documentation related to the technical services provided during the project period. Efficiently collaborate with other team members and stakeholders. Ensure alignment with WIPO's technical standards and procedures. Deliver complete technical and user documentation. Refactor existing web analytics ETL pipeline to minimize inter-dependencies and remove hardcoded filters. Migrate metadata storage from S3 to Aurora and implement analytics on this data. Add additional data sources to the Data Platform, estimated time 1 month. Perform other related duties as required. Requisitos Skills: Hands-on experience writing code for Apache Spark with PySpark and Spark SQL (AWS Glue, Databricks, other Spark implementations) Extensive proven experience in data warehouse/ETL development: SQL, CTE, window functions, facts/dimensions High attention to detail Excellent communication skills; spoken and written English Good Understanding of Data engineering pipelines Knowledge of Data pipeline orchestrators and tools such as Azure Data Factory, Azure logic apps, and AWS Glue Knowledge of python Data pipeline development with Pyspark using Apache spark and Databricks Customer-centric approach to delivery and problem solving Se ofrece Because we know what you need... Taking part in innovative and demanding projects. Would you venture to learn something new? Amenities for you and your time. Work won't be everything! Enjoy our benefits and access our Flexible remuneration plan Freekys + Smart Sessions So that you feel as a part of the team: andjoy, padel, running and even a physio just in case Dare yourself to work in a different way and get to know us!

  • 04/06/2022

    Madrid

    En Rawson BPO nos encontramos en búsqueda del siguiente perfil QA CON TITULACIÓN UNIVERSITARIA para una importante oferta laboral en Madrid -España Ofrecemos la oportunidad de formar parte de un gran proyecto empresarial en constante crecimiento y evolución. Descripción de la oferta. Rol: QA Requisitos Titulación universitaria Uno de automatización Otro de rendimiento Valoramos: Oracle, Apache-Jboss, JUnit, Mockito u otros, frameworks de testing, SONAR o similar, JMeter o similar, ARTIFACTORY, Selenium o similar Condiciones Laborales: Trabajo: Madrid Contrato Indefinido. Salario a convenir

  • 16/06/2022

    Madrid

    En Rawson BPO buscamos perfiles como analista programador java con microservicios Descripción: Conocimientos imprescindibles : conocimiento/experiencia en las siguientes tecnologías: o Kafka o Java 8 o superior (JDK 11/17) o Programación funcional y reactiva o Spring Cloud Stream o Spring Boot o Spring Cloud (Web, Data, JPA) o Spring framework Reactive, WebFlux o Experiencia demostrable en desarrollo de microservicios con arquitectura Event-Driven o Experiencia con PostgreSQL/Oracle o Experiencia/conocimiento SaaS a nivel de software o Valorable conocimiento de Openshit/Kubernetes o Valorable conocimiento patrones de diseño y estructura de datos o Deseable conocimiento integración continua (GitHub) Responsabilidad y funciones : Desarrollo de nuevo producto en el entorno tecnológico requerido Condiciones laborales Contrato indefinido Salario a convenir Trabajo modalidad mixta (remoto-presencial)

  • 18/05/2022

    Madrid

    Funciones En Sopra Steria trabajamos para hacer posible la transformación digital de nuestros clientes y para conseguirlo necesitamos seguir creciendo y sumando gracias a personas como tú. Con presencia en más de 25 países y con más de 45.000 colaboradores, nuestra misión es unir talento y proyectos, tratando de ayudarte a que encuentres un lugar en el que poder desarrollar todo tu potencial. ¿Te atreves a crear el futuro? Requisitos No buscamos la perfección, pero, nos gustaría que tuvieras... Experiencia como Analista Funcional Técnico con experiencia en la toma de requisitos y contemplar la solución de arquitectura. Habilidades técnicas en Java/J2EE ya que aunque no va se va a realizar desarrollo se debe conocer bien el entorno y ser capaz de realizar análisis muy detallados. Conocimiento de Kubernetes, Red Hat Openshift. Conocimientos BBDD relacionales (DB2, Oracle) y no relacionales (MongoDB, CouchBase, etc...) Conocimientos en mensajería (MQ, Kafka, etc...) Se ofrece Porque sabemos lo que necesitas... Facilidades para ti, para tu tiempo. ¡No todo va a ser trabajo! Participa en proyectos retadores. ¿Te animas a aprender algo nuevo? Crece con un programa de desarrollo continúo personalizado Disfruta de nuestros Beneficios y accede al Plan de retribución flexible Smart Sessions ¿Tienes algo que contarnos? Para que te sientas parte del equipo: andjoy, pádel, running... y un fisio por si acaso! ¡Atrévete a trabajar de una forma diferente y conócenos!

  • 17/05/2022

    Andalucía, Aragón, Asturias, País Vasco, Cantabria, Castilla y León, Castilla-La Mancha, Cataluña, Extremadura, Galicia, La Rioja, Madrid, Murcia, Navarra, Comunidad Valenciana, No peninsular

    En Sandav estamos buscando un/a Analista Programador/a Java Senior con buen nivel de inglés (proyecto de carácter internacional) con experiencia en: Java 8, valorando Java 11. Spring framework (Boot imprescindible, valorable otros como Data, Security,...). Arquitectura hexagonal / Domain Driven Development. Experiencia en testing (unitarios, de aceptación, automatización,...). Se valora Cucumber y Gherkin. Modelo de integración continua (CI/CD), por lo que se valora el uso de Jenkins, Nexus, SonarQube... Experiencia en arquitectura de microservicios con comunicación asíncrona: Event Driven Architecture. Experiencia en Kafka o herramientas similares como RabbitMQ. Infraestructura Cloud (valorable AWS). Ofrecemos: Contrato indefinido para esta posición ESTABLE en modelo 100% remoto con horario flexible (8-10h y mínimo 30 min de comida) de lunes a jueves + viernes y 4 MESES DE VERANO INTENSIVA. Salario acorde a experiencia aportada.