• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Disertación de Maestría
DOI
https://doi.org/10.11606/D.3.2022.tde-26072023-090438
Documento
Autor
Nombre completo
Heitor Rodrigues Guimarães
Dirección Electrónica
Instituto/Escuela/Facultad
Área de Conocimiento
Fecha de Defensa
Publicación
São Paulo, 2022
Director
Tribunal
Ramirez, Miguel Arjona (Presidente)
Masiero, Bruno Sanches
Minami, Mario
Título en portugués
Sobre auto-aprendizado de representações para realce da voz 3D.
Palabras clave en portugués
Aprendizado computacional
Aprendizado de representações
Aprendizado não supervisionado
Audio espacial
Processamento de voz
Realce da voz
Resumen en portugués
Métodos baseados em redes neurais profundas ganharam uma grande importância ao se mostrarem alternativas viáveis e poderosas para diversas tarefas, em especial para tarefas de processamento da voz, como reconhecimento de fala, detecção de palavras-chaves e reconhecimento de emoções. Entretanto esses métodos possuem alguns problemas intrínsecos, especialmente no que tange à robustez na presença de fatores deletérios, como ruídos e reverberação. Neste trabalho abordamos o problema de realce da voz, que tem como objetivo ser um sistema de pré-processamento capaz de realçar as características da voz e suprimir ruídos. Algoritmos baseados em modelos estatísticos abordam isto como um problema de maximização de verossimilhança. No entanto, não há garantias de que melhorará características perceptivas, como a inteligibilidade. Estudamos o uso de representações de fala extraídas do modelo wav2vec como função de custo perceptiva para a tarefa de realce da voz. Nossos experimentos demonstram que o uso de modelos de aprendizado contrastivo em funções de custo, para levar em conta características perceptivas, pode melhorar o desempenho do aprimoramento de fala em ambientes 3D. Além disso, discutimos o uso de modelos no domínio do tempo e do tempo-frequência. Nossos melhores resultados são obtidos através de modelos tempo-frequência, em detrimento do custo computacional.
Título en inglés
On self-supervised representations for 3D speech enhancement.
Palabras clave en inglés
Representation learning
Spatial audio
Speech enhancement
Speech processing
Unsupervised learning
Resumen en inglés
Methods based on deep neural networks have gained significant importance by showing viable and robust alternatives for several tasks, especially for speech processing, such as speech recognition, keyword spotting, and emotion recognition. However, these methods have inherent problems, especially regarding the robustness to detrimental factors, such as noise and reverberation. In this work, we tackle the Speech Enhancement problem, a pre-processing system capable of emphasizing the speech signal while suppressing noises. Statistical-model-based algorithms approach this as a likelihood maximization problem. However, there are no guarantees that it will improve perceptual characteristics such as intelligibility. We study the usage of speech representations extracted from the wav2vec model as a perceptual loss function for the Speech Enhancement task. Our experiments demonstrate that using contrastive learning models to consider high-level perceptual features in loss functions can improve the performance of 3D Speech Enhancement. Moreover, we discuss the usage of models in the time and time-frequency domain. Our best results are obtained through time-frequency models, increasing the computational cost.
 
ADVERTENCIA - La consulta de este documento queda condicionada a la aceptación de las siguientes condiciones de uso:
Este documento es únicamente para usos privados enmarcados en actividades de investigación y docencia. No se autoriza su reproducción con finalidades de lucro. Esta reserva de derechos afecta tanto los datos del documento como a sus contenidos. En la utilización o cita de partes del documento es obligado indicar el nombre de la persona autora.
Fecha de Publicación
2023-07-31
 
ADVERTENCIA: Aprenda que son los trabajos derivados haciendo clic aquí.
Todos los derechos de la tesis/disertación pertenecen a los autores
CeTI-SC/STI
Biblioteca Digital de Tesis y Disertaciones de la USP. Copyright © 2001-2024. Todos los derechos reservados.