• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Tesis Doctoral
DOI
https://doi.org/10.11606/T.55.2023.tde-13052024-091728
Documento
Autor
Nombre completo
Victor Hugo Andrade Soares
Dirección Electrónica
Instituto/Escuela/Facultad
Área de Conocimiento
Fecha de Defensa
Publicación
São Carlos, 2023
Director
Tribunal
Ponti, Moacir Antonelli (Presidente)
Batista Neto, João do Espírito Santo
Mari, João Fernando
Pedrini, Hélio
Título en inglés
Techniques for cattle detection, duplicate removal and counting in large pasture areas using multiple aerial images
Palabras clave en inglés
Cattle counting
Duplicate removal
Graph-based method
Livestock
Object detection
Precision farming
Unmanned aerial vehicles (UAVs)
Resumen en inglés
Among the production areas with largest impact on global economy, agriculture and livestock play a prominent role. Technologies have been developed in order to automate and increase the efficiency of these fields. The use of Unmanned Aerial Vehicles (UAVs) has been extensively investigated to improve the efficiency of agricultural production and in the monitoring of animals. One of the most important and challenging tasks in animal monitoring is cattle counting. Traditional manual counting methods are laborious and error-prone, while existing automated approaches struggle with duplicate animal detection. This work presents a method for detecting and counting cattle in aerial images acquired via UAVs. This method leverages Convolutional Neural Networks (CNNs) and employs a graph-based optimization technique to eliminate duplicate animal detection in overlapping images. Our results emphasize the importance of maximizing animal matching to mitigate duplicate counts. Additionally, we integrate multi-attributes, encompassing velocity, direction, state (lying down or standing), color, and distance, to enhance duplicate removal and counting precision. We conducted extensive experiments and training to seamlessly incorporate these attributes into our methodology. Furthermore, we provide a dataset comprising authentic images captured in extensive pasture areas, suitable for both training and testing/benchmarking cattle counting techniques. When evaluating detection and counting, our outcomes underscore the competitiveness of the proposed method while significantly reducing the computational cost of the overall counting process. When focusing solely on duplicate removal, our method surpasses state-of-the-art techniques, achieving an average percentage error of 2.34%. In summary, the proposed method marks a substantial stride towards more efficient cattle counting practices and enhanced livestock management in agriculture.
Título en portugués
Técnicas para detecção de gado, remoção de duplicatas e contagem em grandes áreas de pastagem usando múltiplas imagens aéreas
Palabras clave en portugués
Contagem de gado
Detecção de objetos
Fazenda de precisão
Método baseado em grafos
Pecuária
Remoção de duplicados
Veículos aéreos não tripulados
Resumen en portugués
Nas áreas de produção com maior impacto na economia global, a agricultura e a pecuária desempenham um papel proeminente. Tecnologias têm sido desenvolvidas com o intuito de automatizar e aumentar a eficiência desses setores. O uso de Veículos Aéreos Não Tripulados (VANTs) tem sido amplamente investigado para aprimorar a eficiência da produção agrícola e o monitoramento de animais. Uma das tarefas mais importantes e desafiadoras no monitoramento de animais é a contagem de gado. Métodos tradicionais de contagem manual são trabalhosos e propensos a erros, enquanto abordagens automatizadas existentes lutam com detecções duplicadas de animais. Este trabalho apresenta um método para detectar e contar bovinos em imagens aéreas obtidas por meio de VANTs. Este método é baseado em Redes Neurais Convolucionais (CNNs) para detecção, e utiliza uma técnica de otimização baseada em gráfos para eliminar detecções duplicadas de animais em imagens sobrepostas. Nossos resultados destacam a importância de maximizar a correspondência de animais para mitigar contagens duplicadas. Além disso, integramos múltiplos atributos dos gados, incluindo velocidade, direção, estado (deitado ou em pé), cor e distância, para aprimorar a remoção de duplicatas e a precisão da contagem. Realizamos extensos experimentos e treinamentos para incorporar esses atributos em nossa metodologia. Além disso, fornecemos um conjunto de dados com imagens capturadas em extensas áreas de pastagem, adequadas tanto para o treinamento quanto para testes e avaliação de técnicas de contagem de gado. Ao avaliar a detecção e a contagem, nossos resultados destacam a competitividade do método proposto, ao mesmo tempo em que reduzem significativamente o custo computacional do processo de contagem como um todo. Ao focar exclusivamente na remoção de duplicatas, nosso método supera as técnicas mais avançadas, atingindo um erro médio percentual de 2,34%. Em resumo, o método proposto representa um grande avanço em direção a práticas de contagem de gado mais eficientes e ao aprimoramento da gestão do gado na agricultura.
 
ADVERTENCIA - La consulta de este documento queda condicionada a la aceptación de las siguientes condiciones de uso:
Este documento es únicamente para usos privados enmarcados en actividades de investigación y docencia. No se autoriza su reproducción con finalidades de lucro. Esta reserva de derechos afecta tanto los datos del documento como a sus contenidos. En la utilización o cita de partes del documento es obligado indicar el nombre de la persona autora.
Fecha de Publicación
2024-05-13
 
ADVERTENCIA: Aprenda que son los trabajos derivados haciendo clic aquí.
Todos los derechos de la tesis/disertación pertenecen a los autores
CeTI-SC/STI
Biblioteca Digital de Tesis y Disertaciones de la USP. Copyright © 2001-2024. Todos los derechos reservados.