• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Dissertação de Mestrado
DOI
https://doi.org/10.11606/D.55.2020.tde-19022020-091603
Documento
Autor
Nome completo
Gedson Faria
Unidade da USP
Área do Conhecimento
Data de Defesa
Imprenta
São Carlos, 2000
Orientador
Banca examinadora
Romero, Roseli Aparecida Francelin (Presidente)
Costa, Anna Helena Reali
Politano, Paulo Rogério
Título em português
Explorando o Potencial de Algoritmos de Aprendizado com Reforço em Robôs Móveis
Palavras-chave em português
Não disponível
Resumo em português
O problema de aprendizado com robôs é essencialmente fazer com que o robô execute tarefas sem a necessidade de programá-los explicitamente. Nos últimos anos, Aprendizado de Máquina, um subcampo de Inteligência Artificial, tem procurado substituir programação explicita pelo processo de ensinar uma tarefa. O Aprendizado com Reforço é um dos paradigmas do aprendizado não-supervisionado, podendo ser visto como uma forma de ensinar o robô a realizar uma tarefa sem especificar previamente como realizá-la. O problema de aprendizado com reforço pode ser modelado como: um conjunto de estados do ambiente, um conjunto de ações e um conjunto de recompensas Neste trabalho explora-se o potencial dos principais algoritmos de aprendizado com reforço: Q-learning, R-learning e H-learning. Desta forma, foram comparados métodos "independentes de modelo" e "baseados em modelo", verificando a eficiência de cada algoritmo para a tarefa de navegação em um ambiente dinâmico contendo obstáculos. Além disso, este trabalho propõe um método de navegação baseado em sensores, chamado R-learning, o qual incorpora conceitos de lógica fuzzy ao algoritmo R-learning para a navegação de robôs móveis em ambientes desconhecidos. Foi realizada uma aplicação que consiste em ensinar o robô a encontrar pequenos objetos. Para isto, um conjunto de estados foi mapeado através de conceitos de força de repulsão e para navegação foi utilizado o algoritmo R-learning. O robô mostrou ter um comportamento satisfatório ao realizar esta tarefa.
Título em inglês
Not available
Palavras-chave em inglês
Not available
Resumo em inglês
The problem of robot learning is essentially one of getting robots to do tasks without the need for explicitly programming them. Machine learning is a sub-area of artificial intelligence (AI), whose ultimate goal is to replace explicit programming by teaching. Reinforcement Learning (RL) is an unsupervised learning paradigm and could be seen as a way of prograrnming agents by reward and punishrnent without specify how the task is to be achieved. Formally, the RL model consists of a discrete set of environment states, a discrete set of agent actions and a set of scalar reinforcement signals. In this work, the performance of the most important reinforcement learning algorithms: Q-learning, R-learning, H-learning is investigated. In this way, model-free and model-based are compared, to show the efficiency of each algorithm in the navigation task avoiding obstacles. Furthermore, this work proposes a sensor-based navigation method, called R-learning, which incorporates fuzzy logic into the R-learning algorithm for navigation of mobile robots in uncertain environment. An application consisting of teaching the robots to find small objects in a corridor is realized. For this, a state set mapping is done through force field concepts and for the navigation R-leaning algorithm has been used. The robot showed to have behavior satisfactory in the performing this task.
 
AVISO - A consulta a este documento fica condicionada na aceitação das seguintes condições de uso:
Este trabalho é somente para uso privado de atividades de pesquisa e ensino. Não é autorizada sua reprodução para quaisquer fins lucrativos. Esta reserva de direitos abrange a todos os dados do documento bem como seu conteúdo. Na utilização ou citação de partes do documento é obrigatório mencionar nome da pessoa autora do trabalho.
GedsonFaria_ME.pdf (4.79 Mbytes)
Data de Publicação
2020-02-19
 
AVISO: Saiba o que são os trabalhos decorrentes clicando aqui.
Todos os direitos da tese/dissertação são de seus autores
CeTI-SC/STI
Biblioteca Digital de Teses e Dissertações da USP. Copyright © 2001-2024. Todos os direitos reservados.