Dissertação

{pt_PT=Distributed Learning and Inference for Gaussian Mixtures} {} EVALUATED

{pt=Um sistema distribuído consiste num conjunto de agentes ligados por uma rede de comunicações esparsa: a rede não liga cada agente a todos os outros; liga cada um a um número reduzido de agentes. Após cada agente efetuar medições locais, a rede colabora para aprender a partir do conjunto de todos os dados. Para permitir esta aprendizagem é necessário um algoritmo distribuído que especifique as mensagens que cada agente comunica aos seus vizinhos. Configurações distribuídas podem modelar aplicações como localização cooperativa distribuída de um alvo por uma equipa de Veículos Aéreos Não Tripulados (VANT) que estabelecem comunicações sem fios, com acesso a medidas locais. Nesta tese desenvolvemos algoritmos distribuídos que visam resolver duas questões: (1) Como ajustar uma mistura de K Gaussianas a um conjunto de medições? (2) Como classificar uma medição como pertencendo a uma de K Gaussianas? Relativamente a (1), desenvolvemos três aproximações do algoritmo EM (Expectation-Maximization, valor Esperado-Maximização) distribuídas e escaláveis. Os nossos algoritmos permitem aos agentes ajustar uma mistura de Gaussianas a um conjunto de medições cujas parcelas estão espalhadas pela rede. A literatura considera conjuntos de medições inteiras espalhadas, ao passo que os nossos algoritmos expandem o estado da arte numa direção mais útil. Quanto a (2), desenvolvemos um detetor distribuído com um desempenho próximo do conseguido pelo detetor ótimo, centralizado, assegurando escalabilidade. A literatura considera Gaussianas com estruturas específicas, tal como covariâncias diagonais, enquanto que nesta tese expandimos o estado da arte permitindo estruturas arbitrárias., en=Distributed setups consist of a team of agents linked by a sparse communication network: the network does not link each agent to all others; it only links each agent to a reduced number of nearby agents. After each agent measures local data, they wish to collaborate over the communication network to learn from the collective dataset. What enables such learning is a distributed algorithm---an algorithm that lays down the specific messages that each agent sends through its channels. Distributed setups can model applications such as distributed cooperative target localization by a team of Unmanned Aerial Vehicles (UAV) communicating via wireless channels, having access to local measurements. We design distributed algorithms that address two questions in distributed setups: (1) How to fit a mixture of K Gaussians to a measured dataset? And (2) how to classify a measured data point into one of K given Gaussians? For (1), we design three distributed approximate, yet scalable, expectation-maximization (EM) algorithms. Our algorithms enable the agents to fit a Gaussian mixture model (GMM) to a dataset that is scattered across the network by features. As the literature considers datasets scattered instead by data points, our algorithms expand the state-of-art in a direction more useful in practice. For (2), we design a distributed detector that performs close to the optimum centralized detector and, more importantly, is scalable. As the literature considers Gaussians with particular structures (such as diagonal covariances), we expand on the state-of-art by allowing arbitrary structures.}
{pt=Algoritmos distribuídos, modelo de mistura de Gaussianas, algoritmo EM distribuído, detetor distribuído, en=Distributed algorithms, Gaussian mixture model, distributed EM algorithm, distributed detector}

Novembro 26, 2019, 11:0

Orientação

ORIENTADOR

João Manuel de Freitas Xavier

Departamento de Engenharia Electrotécnica e de Computadores (DEEC)

Professor Associado

ORIENTADOR

Cláudia Alexandra Magalhães Soares

Departamento de Engenharia Electrotécnica e de Computadores (DEEC)

Professor Auxiliar Convidado