• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Disertación de Maestría
DOI
https://doi.org/10.11606/D.18.2020.tde-12052020-175028
Documento
Autor
Nombre completo
Diego Pavan Soler
Instituto/Escuela/Facultad
Área de Conocimiento
Fecha de Defensa
Publicación
São Carlos, 2019
Director
Tribunal
Becker, Marcelo (Presidente)
Inoue, Roberto Santos
Santos, Davi Antônio dos
Título en inglés
2-DOF Laser Structure for Autonomous External Quadrotor Guidance
Palabras clave en inglés
computer vision
precision agriculture
quadrotor
robot cooperation
UAV
Resumen en inglés
This dissertation, 2-DOF Laser Structure for Autonomous External Quadrotor Guidance, has the goal of designing a novel method to attract an aerial robot to a ground vehicle using a system composed of a camera and a laser for autonomous landing. This applications is designed to be used alongside other guiding methods. This is a complex problem that requires work on different fields on both the ground and the aerial robot. On the ground station, know as Mirã, a structure was designed using 3D printed parts, and two stepper motor adjusted for 1:16 microstepping to precisely orient a camera and a laser with 2 DoF. The motor is controlled by a computer vision algorithm that uses four green LED on the aerial robot. With the combination of a light source filter and a color filter along with metric filters, the algorithm can find the LEDs position on the image. By estimating the distance of the center of the LED formation and the center of the image, the algorithm uses the camera calibration parameters to convert it to azimuth and elevation angles, allowing the structure to follow and target the laser on the aerial robot with a error of elevation = 4.96º and azimuth = 0.27º with a standard deviation of 1.03 and 0.51 degree. To call the aerial robot, the structure will perform a linear cut on the elevation motor, because of this, the azimuth precision is made much higher. On the aerial vehicle, using a 6 x 6 matrix of photodectors, a 0.5 x 0.5 m sensor was designed to be capable of estimating the position of the laser dot on the sensor at a rate of 200 Hz. The aerial robot will decode the sensor reading and acquire multiples instances of the readings, once possible, a linear approximation of the point collection is used to estimate a vector, the direction of the vector is estimated by looking at the older and newer points, resulting in a velocity vector which the aerial robot will follow. Once the vehicle is close enough, the structure will perform a cut in the opposite direction, commanding the aerial robot to stop and allowing for reliable autonomous landing.
Título en portugués
Dispositivo autônomo com 2 graus de liberdade para guiar um quadrotor
Palabras clave en portugués
agricultura de precisão
cooperação robótica
quadrotor
VANT
visão computacional
Resumen en portugués
Esta dissertação, Dispositivo autônomo com 2 graus de liberdade para guiar um quadrotor, tem como objetivo projetar um novo método para atrais um veículo aéreo para um veículo terrestre usando um sistema composto de uma câmera e um laser para pouso autônomo. Esta aplicação foi projetada para ser usada em conjunto com outros métodos de localização. Este é um problema complexo que requer para sua solução o uso de metodologias em diferentes campos, tanto no robô aéreo quanto no terrestre. No robô terrestre, conhecido como Miriã, uma estrutura foi projetada usando peças impressas em impressora 3D, dois motores de passo ajustados para 1:16 micropasso são usados para orientar com precisão uma câmera e um laser com 2 DoF. O motor é controlado por um algoritmo de visão computacional que usa quatro LEDs verdes no robô aéreo. Com a combinação de um filtro de luz e um filtro de cor auxiliados por um filtro métrico, o algoritmo pode encontrar a posição dos LEDs na imagem. Ao estimar a distância entre o centro do objeto formado pelos LEDs e o centro da imagem. O algoritmo converte o valor em ângulos de azimute e elevação usando os parâmetros de calibração da câmera, permitindo assim que a estrutura siga e direcione o laser no robô aéreo, com um erro de elevação = 4.96º e azimute = 0.27º com desvio padrão de 1.03 e 0.51 grau, respectivamente. Para chamar o robô aéreo, a estrutura executará um corte linear, ao mover o motor de elevação e, por este motivo, a precisão em azimute é feita maior. No veículo aéreo, usando uma matriz de 6 x 6 fotodetectores, foi concebido um sensor de 0.5 x 0.5 m, capaz de estimar a posição do laser no sensor a uma taxa de 200 Hz. O veículo aéreo decodifica a leitura do sensor e armazena múltiplas instâncias das leituras, então uma aproximação linear dos pontos obtidos é usada para estimar a direção de um vetor, o sentido é estimado observando os pontos mais antigos e os mais recentes, resultando assim em um vetor velocidade que é enviado para o veículo aéreo seguir. Uma vez que o veículo esteja próximo o suficiente, a estrutura realizará um corte na direção oposta, comandando a parada do veículo aéreo e permitindo uma aterrissagem autônoma confiável.
 
ADVERTENCIA - La consulta de este documento queda condicionada a la aceptación de las siguientes condiciones de uso:
Este documento es únicamente para usos privados enmarcados en actividades de investigación y docencia. No se autoriza su reproducción con finalidades de lucro. Esta reserva de derechos afecta tanto los datos del documento como a sus contenidos. En la utilización o cita de partes del documento es obligado indicar el nombre de la persona autora.
Fecha de Publicación
2020-05-20
 
ADVERTENCIA: Aprenda que son los trabajos derivados haciendo clic aquí.
Todos los derechos de la tesis/disertación pertenecen a los autores
CeTI-SC/STI
Biblioteca Digital de Tesis y Disertaciones de la USP. Copyright © 2001-2021. Todos los derechos reservados.