• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Master's Dissertation
DOI
https://doi.org/10.11606/D.55.2020.tde-21082020-135049
Document
Author
Full name
Liz Maribel Huancapaza Hilasaca
E-mail
Institute/School/College
Knowledge Area
Date of Defense
Published
São Carlos, 2020
Supervisor
Committee
Batista Neto, João do Espírito Santo (President)
Eler, Danilo Medeiros
Garcia, Rogério Eduardo
Ponti, Moacir Antonelli
Title in Portuguese
Visual active learnig para rotulagem por características discriminantes em paisagens acústicas
Keywords in Portuguese
Aprendizado Ativo
Características Discriminantes
Paisagem Acústica
Rotulagem de Dados
Visualização
Abstract in Portuguese
Para a análise de Paisagens Acústicas os especialistas precisam conhecer os eventos em um determinado ambiente. Uma das formas de se adquirir esse conhecimento é através do som, isto é, de paisagens acústicas. Atualmente a tecnologia facilita as gravações de ambientes distintos, produzindo centenas de milhares de gravações de áudio todos os anos. Mas, a capacidade de análise desses sinais coletados continuamente é reduzida, sugerindo a necessidade de se automatizar esse processo, sendo necessário utilizar técnicas computacionais que auxiliem a rotulação, a exploração, a análise e o entendimento desses dados. Neste trabalho, é apresentada uma metodologia baseada em conceitos de ciência de dados, aprendizado máquina e visualização de informação, para identificar e validar um conjunto de caraterísticas mais discriminantes num ambiente de aprendizado ativo, de modo que se consiga segregar categorias de eventos de interesse em paisagens acústicas, isto é, grupos de eventos similares. Na primeira parte do trabalho foram identificadas e validadas características mais discriminantes, para isto, formulouse uma estrategia de ranking de importância de caraterísticas, no qual por meio da combinação das n primeiras caraterísticas do ranking permitiu determinar as caraterísticas mais discriminantes. Na segunda parte do trabalho foram validadas as caraterísticas discriminantes em um ambiente de aprendizado visual ativo, que incorpora a utilização de técnicas de projeção como t-SNE e UMAP para visualizar e analisar a segregação entre categorias de eventos da paisagem analisada. Além disso, a visualização de espectrogramas denominada Time-Line-Spectrogram foi incorporada para auxiliar as tarefas de rotulação do usuário no aprendizado ativo. Os resultados confirmam a efetividade das características para segregar categorias de eventos acústicos, no conjunto de dados real denominado Cantareira-Mantiqueira que trata de 3 categorias de eventos: anuros, pássaros e insetos. Na identificação de caraterísticas discriminantes os resultados de acurácia de classificação foram: 89:91% (com 30 caraterísticas para anuros, pássaros e insetos), 82:64% (com 30 caraterísticas para anuros e pássaros), 100:00% (com 46 caraterísticas para anuros e insetos) e 99:40% (com 14 caraterísticas para pássaros e insetos). Para a rotulagem de eventos sonoros com a metodologia visual de aprendizado ativo proposta, os resultados de acurácia atingidos utilizando as caraterísticas discriminantes e uma determinada configuração de parâmetros foram: 75:53% (para anuros, pássaros e insetos), 71:85% (para anuros e pássaros), 90:57% (para anuros e insetos) e 93:99% (para pássaros e insetos).
Title in English
Visual active learning for labeling in soundscape bydiscriminating features
Keywords in English
Active Learning
Discriminant Features
Labeling Data
Soundscape
Visualization
Abstract in English
For the analysis of soundscapes, experts need to know the events in a given environment. One way to acquire this knowledge is through sound, that is, acoustic landscapes. Todays technology makes it easy to record in different environments, producing hundreds of thousands of audio recordings every year. However, the ability to analyze continuously collected signals is reduced, suggesting the need to automate process, it is necessary to use computational techniques that aid in the labeling, exploration, analysis and understanding of these data. In this work, a methodology based on data science, machine learning and information visualization concepts is presented to identify and validate a set of most discriminant features in an active learning environment so that interest categories of events can be segregated in soundscapes, that is, segregated groups of similar events. In the first part of the work, the most discriminant features were identified and validated. For this, a ranking strategy of the importance of features was formulated, combining the first n ranking features it was possible to determine the most discriminant features. The second part of the work validated the discriminant features of an active visual learning environment that incorporates the use of projection techniques such as t-SNE and UMAP to visualize and analyze the segregation between event categories of the analyzed landscape. In addition, a spectrogram visualization strategy called Time-Line-Spectrogram has been incorporated to assist the users labeling tasks in active learning. The results confirm the effectiveness of the features to segregate acoustic event categories in the real data set named Cantareira-Mantiqueira, which deals with 3 event categories: anurans, birds and insects. In identifying discriminant features the accuracy results (10% test) were: 89:91% (with 30 features for anurans, birds and insects), 89:91% (with 30 features for anurans and birds), 100:00% (with 46 features for anurans and insects) and 99:40% (with 14 features for birds and insects). For the labeling of sound events with proposed visual active learning methodology, the accuracy results achieved using the discriminant characteristics and a certain parameters setting were: 75:53% (for frogs, birds and insects), 71:85% (for anurans and birds), 90:57% (for anurans and insects) and 93:99% (for birds and insects).
 
WARNING - Viewing this document is conditioned on your acceptance of the following terms of use:
This document is only for private use for research and teaching activities. Reproduction for commercial use is forbidden. This rights cover the whole data about this document as well as its contents. Any uses or copies of this document in whole or in part must include the author's name.
Publishing Date
2020-08-21
 
WARNING: Learn what derived works are clicking here.
All rights of the thesis/dissertation are from the authors
CeTI-SC/STI
Digital Library of Theses and Dissertations of USP. Copyright © 2001-2024. All rights reserved.