• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Tesis Doctoral
DOI
https://doi.org/10.11606/T.55.2023.tde-08012024-180517
Documento
Autor
Nombre completo
Júnior Anderson Rodrigues da Silva
Dirección Electrónica
Instituto/Escuela/Facultad
Área de Conocimiento
Fecha de Defensa
Publicación
São Carlos, 2023
Director
Tribunal
Wolf, Denis Fernando (Presidente)
Bianchi, Reinaldo Augusto da Costa
Silva, Diego Furtado
Siqueira, Adriano Almeida Gonçalves
Título en inglés
Autonomous driving: learning to make decisions in uncertain environments
Palabras clave en inglés
Artificial intelligence
Autonomous driving
Decision-making under uncertainty
Inverse reinforcement learning (IRL)
Machine learning
Motion planning
Motion prediction
Partially observed Markov decision process (POMDP)
Robotics
Resumen en inglés
A vehicle navigating in an urban environment must obey traffic rules by properly setting its speed in order to stay below the road speed limit and avoiding collisions. This is presumably the scenario that autonomous vehicles will face: they will share the traffic roads with other vehicles (autonomous or not), cooperatively interacting with them. In other words, autonomous vehicles should not only follow traffic rules, but should also behave in such a way that resembles other vehicles behavior. However, manually specification of such behavior is a time-consuming and error-prone work, since driving in urban roads is a complex task, which involves many factors. Furthermore, since the interaction between vehicles is inherent to driving, inferring surrounding vehicles motion is essential to provide a more fluid navigation, avoiding a over-reactive behavior. In this sense, the uncertainty coming from noisy sensor measurements and unknown surrounding vehicles behavior cannot been neglected in order to guarantee safe and reliable decisions. In this thesis, we propose using Partially Observable Markov Decision Process (POMDP) to address the problem of incomplete information inherent of motion planning for autonomous driving. We also propose a variant of Maximum Entropy Inverse Reinforcement Learning (IRL) to learn human expert behavior from demonstration. Three different urban scenarios are covered throughout this work: longitudinal planning at signalized intersection by considering noisy measurements sensor; longitudinal and lateral planning on multi-lane roads in the presence of surrounding vehicles, in which their intention of changing lane are inferred from sequential observations; longitudinal and lateral planning during merge maneuvers in a highly interactive scenario, in which the autonomous vehicle behavior is learned from real data containing human demonstrations. Results show that our methods compare favorably to approaches that neglected uncertainty during planning, and also can improve the IRL performance, which adds safety and reliability in the decision-making.
Título en portugués
Direção autônoma: apredendo a tomar decisões na presença de incertezas
Palabras clave en portugués
Aprendizado de máquina
Aprendizagem por reforço inverso (IRL)
Direção autônoma
Inteligência artificial
Planejamento de movimento
Predição de movimento
Processo de decisão de Markov parcialmente observável (POMDP)
Robótica
Tomada de decisão na presença de incertezas
Resumen en portugués
Um veículo que navega em um ambiente urbano deve obedecer às regras de trânsito, definindo corretamente sua velocidade para ficar abaixo do limite de velocidade da estrada e evitar colisões. Este é presumivelmente o cenário que os veículos autônomos enfrentarão: eles compartilharão as vias de tráfego com outros veículos (autônomos ou não), interagindo cooperativamente com eles. Em outras palavras, os veículos autônomos não devem apenas seguir as regras de trânsito, mas também devem se comportar de maneira semelhante a outros veículos. Porém, a especificação manual de tal comportamento é um trabalho demorado e sujeito a erros, visto que dirigir em vias urbanas é uma tarefa complexa, que envolve diversos fatores. Além disso, uma vez que a interação entre os veículos é inerente à condução, inferir o movimento dos veículos ao redor é essencial para proporcionar uma navegação mais fluida, evitando um comportamento excessivamente reativo. Nesse sentido, incertezas provenientes de sensores com algum grau de imprecisão, como também do comportamento desconhecido de outros veículos não podem ser negligenciadas de forma a garantir tomadas de decisão seguras e confiáveis. Nesta tese, propomos o uso do Processo de Decisão de Markov Parcialmente Observável (POMDP) para resolver o problema de informação incompleta inerente ao planejamento de movimento para veículos autônomos. Também propomos uma variante do Aprendizagem por Reforço Inverso (IRL) baseado no princípio da Entropia Máxima para aprender o comportamento de motoristas humanos a partir de demonstrações. Três diferentes cenários urbanos são abordados ao longo deste trabalho: planejamento longitudinal em cruzamentos com semáforo considerando medições ruidosas de sensores; planejamento longitudinal e lateral em vias de múltiplas faixas na presença de outros veículos, em que a intenção dos mesmos de mudar de faixa é inferida a partir de uma sequência de observações; planejamento longitudinal e lateral durante manobras para adentrar vias movimentadas em um cenário altamente interativo, no qual o comportamento do veículo autônomo é aprendido a partir de dados reais contendo demonstrações humanas. Os resultados mostram que nossos métodos se comparam favoravelmente a abordagens que negligenciam a incerteza durante o planejamento, e também podem melhorar o desempenho do aprendizado por IRL, o que agrega segurança e confiabilidade na tomada de decisão.
 
ADVERTENCIA - La consulta de este documento queda condicionada a la aceptación de las siguientes condiciones de uso:
Este documento es únicamente para usos privados enmarcados en actividades de investigación y docencia. No se autoriza su reproducción con finalidades de lucro. Esta reserva de derechos afecta tanto los datos del documento como a sus contenidos. En la utilización o cita de partes del documento es obligado indicar el nombre de la persona autora.
Fecha de Publicación
2024-01-08
 
ADVERTENCIA: Aprenda que son los trabajos derivados haciendo clic aquí.
Todos los derechos de la tesis/disertación pertenecen a los autores
CeTI-SC/STI
Biblioteca Digital de Tesis y Disertaciones de la USP. Copyright © 2001-2024. Todos los derechos reservados.