Dissertação

E2 RL - Efficient Exploration in Reinforcement Learning EVALUATED

Esta tese foca-se no problema de exploração eficiente em aprendizagem por reforço com aproximação de funções baseada em redes neuronais. No entanto, e apesar dos seus recentes sucessos, estes métodos requerem um volume significativo de dados. Estratégias de exploração eficientes - em que o agente procura activamente visitar regiões promissoras ou menos visitadas do espaço de estados-acções - têm sido investigadas em domínios de aprendizagem por reforço clássicos, melhorando significativamente a eficiência de aprendizagem nestes métodos. Esta tese contribui novas estratégias de exploração que combinam e estendem abordagens existentes para exploração em arquiteturas de aprendizagem por reforço baseadas em aprendizagem profunda. É testado o impacto das abordagens propostas em vários domínios de referência da literatura da aprendizagem por reforço, demonstrando o impacto positivo da exploração activa na performance de algoritmos de aprendizagem por reforço com aproximação de funções baseada em redes neuronais.
Aprendizagem profunda, Aprendizagem por reforço, Dilema "exploration-exploitation", Motivação intrínseca, Redes neuronais com ruído

Junho 5, 2018, 9:0

Publicação

Obra sujeita a Direitos de Autor

Orientação

ORIENTADOR

Francisco António Chaves Saraiva de Melo

Departamento de Engenharia Informática (DEI)

Professor Auxiliar

ORIENTADOR

Manuel Fernando Cabido Peres Lopes

Departamento de Engenharia Informática (DEI)

Professor Associado