Dissertação

{en_GB=Deep Reinforcement Learning of the Inverse Pushing Model in Robotics} {} EVALUATED

{pt=Esta tese apresenta uma abordagem de aprendizagem por reforço profunda para aprender modelos inversos de ações de empurrar objetos individuais, dada a disponibilidade do modelo direto. A abordagem proposta consegue aprender o modelo inverso que permite selecionar a melhor ação para empurrar um determinado objeto de modo a cumprir uma tarefa, para o qual é possível obter uma nuvem de pontos em tempo real. Este trabalho ilustra a aplicação desta abordagem em objetos do tipo caixa. As ações que empurram os objetos numa superfície plana são do tipo quase-estático em duas dimensões. Os modelos inversos são aprendidos para um conjunto discreto de ações e têm como objetivo empurrar os objetos para o mais próximo possível da posição e orientação desejadas numa única ação. As ações são parametrizadas por pontos de contacto amostrados na superfície do objeto e por modelos de movimento que representam deslocações lineares e angulares possíveis para o robot dado. As posições e orientações desejadas são amostradas de uma densidade de probabilidade Gaussiana treinada a partir de resultados obtidos a partir do modelo direto. No ambiente considerado, a abordagem proposta consegue taxas de sucesso de cerva de 80%., en=This thesis presents a Deep Reinforcement Learning Framework approach to learn inverse models for robotic push manipulation of single objects, based on available forward pushing models. The introduced framework has the ability to learn the inverse pushing model of an object for which a point cloud can be acquired at run time. This work illustrates the application of the proposed approach on a box shaped object. Planar pushes being quasi-static processes are considered and only 2-Dimensions are taken into account. The inverse models are learned for a discrete set of actions. The aim of these models is to push the object as close as possible to a target pose in a single action. The push actions are parametrized by contacts sampled on the object surface and by motion models encoding possible robot actions. Pushing goals are sampled from a Gaussian probability distribution function based on the forward models outcomes. In the considered environment, the proposed approach achieves success rates over 0,8 at the given task.}
{pt=Aprendizagem por Reforço, Empurrar Objectos, Robots Móveis, Modelos Diretos, Modelos Inversos, en=Reinforcement Learning, Push Actions, Mobile Robots, Forward Models, Inverse Models}

Fevereiro 15, 2021, 14:0

Orientação

ORIENTADOR

Claudio Zito

Autonomous Robotics Research Centre Technology Innovation Institute (UAE)

Investigador Coordenador

ORIENTADOR

Alexandre José Malheiro Bernardino

Departamento de Engenharia Electrotécnica e de Computadores (DEEC)

Professor Associado