• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Mémoire de Maîtrise
DOI
https://doi.org/10.11606/D.18.2020.tde-12052020-175028
Document
Auteur
Nom complet
Diego Pavan Soler
Unité de l'USP
Domain de Connaissance
Date de Soutenance
Editeur
São Carlos, 2019
Directeur
Jury
Becker, Marcelo (Président)
Inoue, Roberto Santos
Santos, Davi Antônio dos
Titre en anglais
2-DOF Laser Structure for Autonomous External Quadrotor Guidance
Mots-clés en anglais
computer vision
precision agriculture
quadrotor
robot cooperation
UAV
Resumé en anglais
This dissertation, 2-DOF Laser Structure for Autonomous External Quadrotor Guidance, has the goal of designing a novel method to attract an aerial robot to a ground vehicle using a system composed of a camera and a laser for autonomous landing. This applications is designed to be used alongside other guiding methods. This is a complex problem that requires work on different fields on both the ground and the aerial robot. On the ground station, know as Mirã, a structure was designed using 3D printed parts, and two stepper motor adjusted for 1:16 microstepping to precisely orient a camera and a laser with 2 DoF. The motor is controlled by a computer vision algorithm that uses four green LED on the aerial robot. With the combination of a light source filter and a color filter along with metric filters, the algorithm can find the LEDs position on the image. By estimating the distance of the center of the LED formation and the center of the image, the algorithm uses the camera calibration parameters to convert it to azimuth and elevation angles, allowing the structure to follow and target the laser on the aerial robot with a error of elevation = 4.96º and azimuth = 0.27º with a standard deviation of 1.03 and 0.51 degree. To call the aerial robot, the structure will perform a linear cut on the elevation motor, because of this, the azimuth precision is made much higher. On the aerial vehicle, using a 6 x 6 matrix of photodectors, a 0.5 x 0.5 m sensor was designed to be capable of estimating the position of the laser dot on the sensor at a rate of 200 Hz. The aerial robot will decode the sensor reading and acquire multiples instances of the readings, once possible, a linear approximation of the point collection is used to estimate a vector, the direction of the vector is estimated by looking at the older and newer points, resulting in a velocity vector which the aerial robot will follow. Once the vehicle is close enough, the structure will perform a cut in the opposite direction, commanding the aerial robot to stop and allowing for reliable autonomous landing.
Titre en portugais
Dispositivo autônomo com 2 graus de liberdade para guiar um quadrotor
Mots-clés en portugais
agricultura de precisão
cooperação robótica
quadrotor
VANT
visão computacional
Resumé en portugais
Esta dissertação, Dispositivo autônomo com 2 graus de liberdade para guiar um quadrotor, tem como objetivo projetar um novo método para atrais um veículo aéreo para um veículo terrestre usando um sistema composto de uma câmera e um laser para pouso autônomo. Esta aplicação foi projetada para ser usada em conjunto com outros métodos de localização. Este é um problema complexo que requer para sua solução o uso de metodologias em diferentes campos, tanto no robô aéreo quanto no terrestre. No robô terrestre, conhecido como Miriã, uma estrutura foi projetada usando peças impressas em impressora 3D, dois motores de passo ajustados para 1:16 micropasso são usados para orientar com precisão uma câmera e um laser com 2 DoF. O motor é controlado por um algoritmo de visão computacional que usa quatro LEDs verdes no robô aéreo. Com a combinação de um filtro de luz e um filtro de cor auxiliados por um filtro métrico, o algoritmo pode encontrar a posição dos LEDs na imagem. Ao estimar a distância entre o centro do objeto formado pelos LEDs e o centro da imagem. O algoritmo converte o valor em ângulos de azimute e elevação usando os parâmetros de calibração da câmera, permitindo assim que a estrutura siga e direcione o laser no robô aéreo, com um erro de elevação = 4.96º e azimute = 0.27º com desvio padrão de 1.03 e 0.51 grau, respectivamente. Para chamar o robô aéreo, a estrutura executará um corte linear, ao mover o motor de elevação e, por este motivo, a precisão em azimute é feita maior. No veículo aéreo, usando uma matriz de 6 x 6 fotodetectores, foi concebido um sensor de 0.5 x 0.5 m, capaz de estimar a posição do laser no sensor a uma taxa de 200 Hz. O veículo aéreo decodifica a leitura do sensor e armazena múltiplas instâncias das leituras, então uma aproximação linear dos pontos obtidos é usada para estimar a direção de um vetor, o sentido é estimado observando os pontos mais antigos e os mais recentes, resultando assim em um vetor velocidade que é enviado para o veículo aéreo seguir. Uma vez que o veículo esteja próximo o suficiente, a estrutura realizará um corte na direção oposta, comandando a parada do veículo aéreo e permitindo uma aterrissagem autônoma confiável.
 
AVERTISSEMENT - Regarde ce document est soumise à votre acceptation des conditions d'utilisation suivantes:
Ce document est uniquement à des fins privées pour la recherche et l'enseignement. Reproduction à des fins commerciales est interdite. Cette droits couvrent l'ensemble des données sur ce document ainsi que son contenu. Toute utilisation ou de copie de ce document, en totalité ou en partie, doit inclure le nom de l'auteur.
Date de Publication
2020-05-20
 
AVERTISSEMENT: Apprenez ce que sont des œvres dérivées cliquant ici.
Tous droits de la thèse/dissertation appartiennent aux auteurs
CeTI-SC/STI
Bibliothèque Numérique de Thèses et Mémoires de l'USP. Copyright © 2001-2020. Tous droits réservés.