Dissertação

{pt_PT=Navigation and guidance strategy online planning and execution for autonomous UAV} {} EVALUATED

{pt=O planeamento eficiente de trajetórias de Veículos Aéreos Não Tripulados (VANTs) autónomos em ambientes estocásticos é um problema de tomada de decisões desafiante. Recentemente, Processos de Decisão de Markov com Observação Mista (MOMDPs) foram propostos para o resolver, reduzindo o esforço computacional. Neste trabalho, um problema de planeamento da trajetória mais curta em ambiente estocástico parcialmente observável (PO-SSP) é modelado como um MOMDP. O modelo resultante permite ao planeador lidar a priori com a disponibilidade probabilística do sensor e a propagação de erros de execução da trajetória, que dependem da solução de navegação e guiamento usada. Esta abordagem resulta num problema pesado e complexo a ser resolvido. Para o enfrentar, é utilizada uma variante orientada a objetivos do Partially Observable Monte-Carlo Planning (POMCP), um dos algoritmos de pesquisa em árvore mais rápidos para ambientes parcialmente observáveis em tempo real. Este usa Upper Confidence Bounds (UCB1) como estratégia de seleção da ação, a qual depende de uma constante tipicamente ajustada manualmente que requer uma pesquisa exaustiva para encontrar o valor mais adequado. Esta pesquisa exaustiva aplicada num problema tão complexo como este pode consumir muito tempo. Assim, são propostos coeficientes dinâmicos como primeira contribuição desta dissertação. A segunda contribuição passa por incorporar esta solução de navegação e guiamento numa arquitetura de planeamento e execução em simultâneo. A estrutura resultante fornece soluções estritamente anytime, enquanto explora o tempo de execução da ação para antecipar estados futuros, minimizando a duração total da missão. Simulações realizadas em Gazebo permitem avaliar o desempenho desta estrutura., en=Efficient path planning for autonomous Unmanned Aerial Vehicles (UAVs) in cluttered environments is a challenging decision-making problem under uncertainty. Recently, Mixed-Observability Markov Decision Processes (MOMDPs) have been proposed to solve such navigation problems with the goal of reducing computational effort. In this work, a Partially Observable Stochastic Shortest Path (PO-SSP) planning problem is modelled as a MOMDP. The resulting model enables the planner to deal with a priori probabilistic sensor availability and path execution error propagation, which depend on the navigation and guidance solution used. This approach results in a large and complex path planning problem to be solved. To address this issue, a goal-oriented variant of the Partially Observable Monte-Carlo Planning (POMCP), one of the fastest online state-of-the-art Monte-Carlo Tree Search algorithms for partially observable environments, is used. It relies on the Upper Confidence Bounds (UCB1) as an action selection strategy, which depends on a coefficient typically adjusted manually that requires an exhaustive search to find the most suitable value. This exhaustive search applied to such a complex planning problem may be extremely time consuming. Therefore, dynamic coefficients are proposed as a first contribution of this dissertation. A second contribution is to incorporate this navigation and guidance strategy in a planning-while-executing framework. The resulting structure provides strictly anytime solutions, while exploiting action execution time to anticipate and plan future states, minimizing the overall duration of the mission. Simulations performed in Gazebo allow to evaluate the performance of this structure.}
{pt=Planeamento de Trajetórias sob Incerteza, Estratégia de Navegação e Guiamento, MOMDP, Planeamento e Execução em simultâneo, en=Path Planning under Uncertainty, Navigation and Guidance Strategy, MOMDP, Concurrent Planning and Execution}

Novembro 20, 2019, 14:0

Orientação

ORIENTADOR

Caroline Ponzoni Carvalho Chanel

ISAE-SUPAERO

ORIENTADOR

Rodrigo Martins de Matos Ventura

Departamento de Engenharia Electrotécnica e de Computadores (DEEC)

Professor Auxiliar