• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Dissertação de Mestrado
DOI
https://doi.org/10.11606/D.18.2020.tde-12052020-175028
Documento
Autor
Nome completo
Diego Pavan Soler
Unidade da USP
Área do Conhecimento
Data de Defesa
Imprenta
São Carlos, 2019
Orientador
Banca examinadora
Becker, Marcelo (Presidente)
Inoue, Roberto Santos
Santos, Davi Antônio dos
Título em inglês
2-DOF Laser Structure for Autonomous External Quadrotor Guidance
Palavras-chave em inglês
computer vision
precision agriculture
quadrotor
robot cooperation
UAV
Resumo em inglês
This dissertation, 2-DOF Laser Structure for Autonomous External Quadrotor Guidance, has the goal of designing a novel method to attract an aerial robot to a ground vehicle using a system composed of a camera and a laser for autonomous landing. This applications is designed to be used alongside other guiding methods. This is a complex problem that requires work on different fields on both the ground and the aerial robot. On the ground station, know as Mirã, a structure was designed using 3D printed parts, and two stepper motor adjusted for 1:16 microstepping to precisely orient a camera and a laser with 2 DoF. The motor is controlled by a computer vision algorithm that uses four green LED on the aerial robot. With the combination of a light source filter and a color filter along with metric filters, the algorithm can find the LEDs position on the image. By estimating the distance of the center of the LED formation and the center of the image, the algorithm uses the camera calibration parameters to convert it to azimuth and elevation angles, allowing the structure to follow and target the laser on the aerial robot with a error of elevation = 4.96º and azimuth = 0.27º with a standard deviation of 1.03 and 0.51 degree. To call the aerial robot, the structure will perform a linear cut on the elevation motor, because of this, the azimuth precision is made much higher. On the aerial vehicle, using a 6 x 6 matrix of photodectors, a 0.5 x 0.5 m sensor was designed to be capable of estimating the position of the laser dot on the sensor at a rate of 200 Hz. The aerial robot will decode the sensor reading and acquire multiples instances of the readings, once possible, a linear approximation of the point collection is used to estimate a vector, the direction of the vector is estimated by looking at the older and newer points, resulting in a velocity vector which the aerial robot will follow. Once the vehicle is close enough, the structure will perform a cut in the opposite direction, commanding the aerial robot to stop and allowing for reliable autonomous landing.
Título em português
Dispositivo autônomo com 2 graus de liberdade para guiar um quadrotor
Palavras-chave em português
agricultura de precisão
cooperação robótica
quadrotor
VANT
visão computacional
Resumo em português
Esta dissertação, Dispositivo autônomo com 2 graus de liberdade para guiar um quadrotor, tem como objetivo projetar um novo método para atrais um veículo aéreo para um veículo terrestre usando um sistema composto de uma câmera e um laser para pouso autônomo. Esta aplicação foi projetada para ser usada em conjunto com outros métodos de localização. Este é um problema complexo que requer para sua solução o uso de metodologias em diferentes campos, tanto no robô aéreo quanto no terrestre. No robô terrestre, conhecido como Miriã, uma estrutura foi projetada usando peças impressas em impressora 3D, dois motores de passo ajustados para 1:16 micropasso são usados para orientar com precisão uma câmera e um laser com 2 DoF. O motor é controlado por um algoritmo de visão computacional que usa quatro LEDs verdes no robô aéreo. Com a combinação de um filtro de luz e um filtro de cor auxiliados por um filtro métrico, o algoritmo pode encontrar a posição dos LEDs na imagem. Ao estimar a distância entre o centro do objeto formado pelos LEDs e o centro da imagem. O algoritmo converte o valor em ângulos de azimute e elevação usando os parâmetros de calibração da câmera, permitindo assim que a estrutura siga e direcione o laser no robô aéreo, com um erro de elevação = 4.96º e azimute = 0.27º com desvio padrão de 1.03 e 0.51 grau, respectivamente. Para chamar o robô aéreo, a estrutura executará um corte linear, ao mover o motor de elevação e, por este motivo, a precisão em azimute é feita maior. No veículo aéreo, usando uma matriz de 6 x 6 fotodetectores, foi concebido um sensor de 0.5 x 0.5 m, capaz de estimar a posição do laser no sensor a uma taxa de 200 Hz. O veículo aéreo decodifica a leitura do sensor e armazena múltiplas instâncias das leituras, então uma aproximação linear dos pontos obtidos é usada para estimar a direção de um vetor, o sentido é estimado observando os pontos mais antigos e os mais recentes, resultando assim em um vetor velocidade que é enviado para o veículo aéreo seguir. Uma vez que o veículo esteja próximo o suficiente, a estrutura realizará um corte na direção oposta, comandando a parada do veículo aéreo e permitindo uma aterrissagem autônoma confiável.
 
AVISO - A consulta a este documento fica condicionada na aceitação das seguintes condições de uso:
Este trabalho é somente para uso privado de atividades de pesquisa e ensino. Não é autorizada sua reprodução para quaisquer fins lucrativos. Esta reserva de direitos abrange a todos os dados do documento bem como seu conteúdo. Na utilização ou citação de partes do documento é obrigatório mencionar nome da pessoa autora do trabalho.
Data de Publicação
2020-05-20
 
AVISO: Saiba o que são os trabalhos decorrentes clicando aqui.
Todos os direitos da tese/dissertação são de seus autores
CeTI-SC/STI
Biblioteca Digital de Teses e Dissertações da USP. Copyright © 2001-2020. Todos os direitos reservados.