• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Disertación de Maestría
DOI
https://doi.org/10.11606/D.3.2011.tde-12122011-152445
Documento
Autor
Nombre completo
Tiago Matos
Dirección Electrónica
Instituto/Escuela/Facultad
Área de Conocimiento
Fecha de Defensa
Publicación
São Paulo, 2011
Director
Tribunal
Reali Costa, Anna Helena (Presidente)
Barros, Leliane Nunes de
Romero, Roseli Aparecida Francelin
Título en portugués
Uso de política abstrata estocástica na navegação robótica.
Palabras clave en portugués
Aprendizado computacional relacional
Inteligência artificial
Robótica
Resumen en portugués
A maioria das propostas de planejamento de rotas para robôs móveis não leva em conta a existência de soluções para problemas similares ao aprender a política para resolver um novo problema; e devido a isto, o problema de navegação corrente deve ser resolvido a partir do zero, o que pode ser excessivamente custoso em relação ao tempo. Neste trabalho é realizado o acoplamento do conhecimento prévio obtido de soluções similares, representado por uma política abstrata, a um processo de aprendizado por reforço. Além disto, este trabalho apresenta uma arquitetura para o aprendizado por reforço simultâneo, de nome ASAR, onde a política abstrata auxilia na inicialização da política para o problema concreto, e ambas as políticas são refinadas através da exploração. A fim de reduzir a perda de informação na construção da política abstrata é proposto um algoritmo, nomeado X-TILDE, que constrói uma política abstrata estocástica. A arquitetura proposta é comparada com um algoritmo de aprendizado padrão e os resultados demonstram que ela é eficaz em acelerar a construção da política para problemas práticos.
Título en inglés
Using stochastic abstract policies in robotic navigation.
Palabras clave en inglés
Knowledge transfer
Policy abstraction
Reinforcement learning
Relational MDP
Robotic navigation
Resumen en inglés
Most work in path-planning approaches for mobile robots does not take into account existing solutions to similar problems when learning a policy to solve a new problem, and consequently solves the current navigation problem from scratch, what can be very time consuming. In this work we couple a prior knowledge obtained from a similar solution to a reinforcement learning process. The prior knowledge is represented by an abstract policy. In addition, this work presents a framework for simultaneous reinforcement learning called ASAR, where the abstract policy helps start up the policy for the concrete problem, and both policies are refined through exploration. For the construction of the abstract policy we propose an algorithm called X-TILDE, that builds a stochastic abstract policy, in order to reduce the loss of information. The proposed framework is compared with a default learning algorithm and the results show that it is effective in speeding up policy construction for practical problems.
 
ADVERTENCIA - La consulta de este documento queda condicionada a la aceptación de las siguientes condiciones de uso:
Este documento es únicamente para usos privados enmarcados en actividades de investigación y docencia. No se autoriza su reproducción con finalidades de lucro. Esta reserva de derechos afecta tanto los datos del documento como a sus contenidos. En la utilización o cita de partes del documento es obligado indicar el nombre de la persona autora.
Fecha de Publicación
2011-12-14
 
ADVERTENCIA: El material descrito abajo se refiere a los trabajos derivados de esta tesis o disertación. El contenido de estos documentos es responsabilidad del autor de la tesis o disertación.
  • BEIRIGO, Rafael Lemes, et al. Avaliação de Políticas Abstratas na Transferência de Conhecimento em Navegação Robótica. Revista de Sistemas e Computação [online], 2012, vol. 2, p. 17-25. Dispon?vel em: http://www.revistas.unifacs.br/index.php/rsc/article/view/2420.
  • Bergamo, Yannick P., et al. Accelerating reinforcement learning by reusing abstract policies. In VIII Encontro Nacional de Inteligência Artificial (ENIA 2011), Natal, RN, 2011. Encontro Nacional de Inteligência Artificial. : SBC, 2011.
  • MATOS, T., et al. Simultaneous abstract and concrete reinforcement learning. In 9th Symposium on Abstraction, Reformulation and Approximation (SARA 2011), Parador de Cardona, Spain, 2011. 9th Symposium on Abstraction, Reformulation and Approximation.Menlo Park, CA : AAAI Press, 2011.
  • MATOS, T., e COSTA, Anna Helena Reali. Aprendizado por Reforço Relacional para Reaproveitamento do Conhecimento em Navegação Robótica. In WTDIA 2010 - V Workshop on MSc Dissertation and PhD Thesis in Artificial Intelligence, São Bernardo do Campo, 2010. Anais do WTDIA 2010 - V Workshop on MSc Dissertation and PhD Thesis in Artificial Intelligence. : SBC, 2010.
Todos los derechos de la tesis/disertación pertenecen a los autores
CeTI-SC/STI
Biblioteca Digital de Tesis y Disertaciones de la USP. Copyright © 2001-2024. Todos los derechos reservados.