Dissertação

{pt_PT=Ferramenta para Avaliar Arquitecturas de Microsserviço} {} EVALUATED

{pt=A arquitectura de microsserviço oferece inúmeras vantagens para os sistemas distribuídos em larga escala, tais como escalabilidade diferenciada, resiliência e optimização de cada subsistema de forma autónoma. Estas vantagens dependem da qualidade de construção dos microsserviços, que é um processo complexo e apresenta fundamentalmente desafios arquitecturais e operacionais. A construção dum sistema baseado em microsserviços é realizada a partir da conjugação de diversos factores (protocolos de comunicação, replicação, coordenação, frameworks e outros). A conjugação desses factores resulta num conjunto elevado de alternativas de plataforma, cuja decisão de quais escolher e como avaliar o impacto desta decisão sob uma base comum não é tarefa trivial. Esta dissertação propôs uma ferramenta que permite avaliar o desempenho de variantes de plataformas subjacentes de sistemas baseado em microsserviços sob uma base comum. As ferramentas actuais para Benchmarking de microsserviços focam-se em sistemas monolíticos, por exemplo o TPC-W (um Benchmark reconhecido para avaliação de bases de dados de comércio online) e muitas outras ferramentas, não são facilmente aplicadas aos sistemas de microsserviços devido as características deste modelo arquitectural. A nossa ferramenta permite avaliar e comparar, em termos de débito e latência, estas diferentes implementações (quer monolíticas quer baseadas em microsserviços) independentemente da implementação específica da interface da aplicação. A nossa ferramenta apresentou bons resultados, em termos de correção e desempenho, em comparação com o TPC-W e a si mesma quando comparada com instalação georeplicada do serviço Shopping. Os testes realizados mostraram que a nossa ferramenta avalia com boa precisão e com bom desempenho., en=The microservice architecture offers numerous advantages for large-scale distributed systems, such as differentiated scalability, resilience and autonomous optimization of each subsystem. These advantages depend on the quality of building microservices, which is a complex process and fundamentally presents architectural and operational challenges. The system-building based on microservices results in the combination of several factors (communication protocols, replication, coordination, frameworks, and others). The combination of these factors results in a variety of platform alternatives, whose decision on which to choose and how to evaluate the impact of this decision on a common basis is no trivial task. This dissertation proposed a Benchmark tool that allows evaluating the performance of underlying platform variants of microservices-based systems. Today's microservice benchmarking tools focus on monolithic systems, for example, TPC-W (a recognized benchmark for online commerce database evaluation) and many other tools, are not easily applied to microservice systems due to their characteristics. Our tool allows you to evaluate and compare, in terms of throughput and latency, these different implementations (both monolithic and microservices-based) regardless of the specific implementation of the application interface. Our tool delivered good results in terms of correction and performance compared to TPC-W and itself when compared to the geo-replicated deployment of the Shopping service. The tests performed showed that our tool evaluates with good accuracy and good performance.}
{pt=Ferramenta, Benchmarking, Benchmark, Arquitectura de Microsserviço, Avaliação de Desempenho, en=Tool, Benchmarking, Benchmark, Microservice Architecture, Performance Evaluation}

Dezembro 3, 2019, 11:0

Orientação

ORIENTADOR

João Coelho Garcia

Departamento de Engenharia Informática (DEI)

Professor Auxiliar