• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Dissertação de Mestrado
DOI
https://doi.org/10.11606/D.3.2022.tde-26072023-090438
Documento
Autor
Nome completo
Heitor Rodrigues Guimarães
E-mail
Unidade da USP
Área do Conhecimento
Data de Defesa
Imprenta
São Paulo, 2022
Orientador
Banca examinadora
Ramirez, Miguel Arjona (Presidente)
Masiero, Bruno Sanches
Minami, Mario
Título em português
Sobre auto-aprendizado de representações para realce da voz 3D.
Palavras-chave em português
Aprendizado computacional
Aprendizado de representações
Aprendizado não supervisionado
Audio espacial
Processamento de voz
Realce da voz
Resumo em português
Métodos baseados em redes neurais profundas ganharam uma grande importância ao se mostrarem alternativas viáveis e poderosas para diversas tarefas, em especial para tarefas de processamento da voz, como reconhecimento de fala, detecção de palavras-chaves e reconhecimento de emoções. Entretanto esses métodos possuem alguns problemas intrínsecos, especialmente no que tange à robustez na presença de fatores deletérios, como ruídos e reverberação. Neste trabalho abordamos o problema de realce da voz, que tem como objetivo ser um sistema de pré-processamento capaz de realçar as características da voz e suprimir ruídos. Algoritmos baseados em modelos estatísticos abordam isto como um problema de maximização de verossimilhança. No entanto, não há garantias de que melhorará características perceptivas, como a inteligibilidade. Estudamos o uso de representações de fala extraídas do modelo wav2vec como função de custo perceptiva para a tarefa de realce da voz. Nossos experimentos demonstram que o uso de modelos de aprendizado contrastivo em funções de custo, para levar em conta características perceptivas, pode melhorar o desempenho do aprimoramento de fala em ambientes 3D. Além disso, discutimos o uso de modelos no domínio do tempo e do tempo-frequência. Nossos melhores resultados são obtidos através de modelos tempo-frequência, em detrimento do custo computacional.
Título em inglês
On self-supervised representations for 3D speech enhancement.
Palavras-chave em inglês
Representation learning
Spatial audio
Speech enhancement
Speech processing
Unsupervised learning
Resumo em inglês
Methods based on deep neural networks have gained significant importance by showing viable and robust alternatives for several tasks, especially for speech processing, such as speech recognition, keyword spotting, and emotion recognition. However, these methods have inherent problems, especially regarding the robustness to detrimental factors, such as noise and reverberation. In this work, we tackle the Speech Enhancement problem, a pre-processing system capable of emphasizing the speech signal while suppressing noises. Statistical-model-based algorithms approach this as a likelihood maximization problem. However, there are no guarantees that it will improve perceptual characteristics such as intelligibility. We study the usage of speech representations extracted from the wav2vec model as a perceptual loss function for the Speech Enhancement task. Our experiments demonstrate that using contrastive learning models to consider high-level perceptual features in loss functions can improve the performance of 3D Speech Enhancement. Moreover, we discuss the usage of models in the time and time-frequency domain. Our best results are obtained through time-frequency models, increasing the computational cost.
 
AVISO - A consulta a este documento fica condicionada na aceitação das seguintes condições de uso:
Este trabalho é somente para uso privado de atividades de pesquisa e ensino. Não é autorizada sua reprodução para quaisquer fins lucrativos. Esta reserva de direitos abrange a todos os dados do documento bem como seu conteúdo. Na utilização ou citação de partes do documento é obrigatório mencionar nome da pessoa autora do trabalho.
Data de Publicação
2023-07-31
 
AVISO: Saiba o que são os trabalhos decorrentes clicando aqui.
Todos os direitos da tese/dissertação são de seus autores
CeTI-SC/STI
Biblioteca Digital de Teses e Dissertações da USP. Copyright © 2001-2024. Todos os direitos reservados.