Dissertação
Robot Skills: From Imitation to Exploration Learning EVALUATED
O ténis de mesa é uma tarefa onde as interacções complexas entre a física da bola e a do robô tornam muito difícil criar um modelo analítico que possa competir com a precisão e habilidade de um jogador humano. Esta complexidade torna o ténis de mesa um desafio aliciante, com uma longa história de demonstração de algoritmos em robótica. Adicionalmente os modelos analíticos tendem a ser muito sensíveis às parametrizações, e requerem reprogramação quando existem alterações. Uma abordagem baseada em aprendizagem automática permite ao robô adaptar-se de forma autónoma, e aprender o modelo e a tarefa em simultâneo. Esta dissertação pode ser dividida em duas partes. Na primeira parte é discutida a regressão através de processos gaussianos (GPR) e é feita uma ponte para a Regressão Kernelizada regularizada por Custo (CrKR) um algoritmo do estado-da-arte de aprendizagem por reforço (RL). Explorámos novas estratégias online para aumentar a esparsidade das amostras recolhidas. Estas permitem a continuação da aprendizagem para além de um número de amostras após o qual a complexidade computacional de O(n^3) da regressão se torna onerosa. A segunda parte aborda métodos de aprendizagem por imitação (IL). Introduzimos as Primitivas Dinâmicas de Movimento (DMP) e o nosso método de imitar trajectórias, as Primitivas de Movimento por Programação Quadrática (QPMP). Este método aproveita a existência de algoritmos extremamente eficazes para minimizar funções convexas e tem flexibilidade acrescida comparativamente aos métodos existentes. Permitindo a definição de restrições na generalização de trajectórias demonstradas. Apresentamos resultados obtidos em simulação e numa plataforma robótica real.
maio 18, 2016, 10:0
Publicação
Obra sujeita a Direitos de Autor
Orientação
ORIENTADOR
Alexandre José Malheiro Bernardino
Departamento de Engenharia Electrotécnica e de Computadores (DEEC)
Professor Associado