• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Tese de Doutorado
DOI
https://doi.org/10.11606/T.55.2020.tde-19032020-083537
Documento
Autor
Nome completo
Fernando Pereira dos Santos
E-mail
Unidade da USP
Área do Conhecimento
Data de Defesa
Imprenta
São Carlos, 2020
Orientador
Banca examinadora
Ponti, Moacir Antonelli (Presidente)
Cerri, Ricardo
Santos, Jefersson Alex dos
Traina, Agma Juci Machado
Título em inglês
Features transfer learning between domains for image and video recognition tasks
Palavras-chave em inglês
Cross-domain
Deep learning
Features transfer learning
Generalization measures
Manifold alignment
Resumo em inglês
Feature transfer learning aims to reuse knowledge previously acquired in some source dataset to apply it in another target data and/or task. A requirement for the transfer of knowledge is the quality of feature spaces obtained, in which deep learning methods are widely applied since those provide discriminative and general descriptors. In this context, the main questions include: what to transfer align the data distribution from source and target, and adjusting the parameters to increase the models generalization capability; how to transfer investigating methods that work on the features spaces or also on the learned models; and when to transfer studying which datasets are mode adequate for transferring, considering discrepancies between source and target data, such as they different acquisition settings, clutter and illumination variation, among others. This thesis advocates that the focus should be in transferring feature spaces, learned by convolutional neural networks, in particular investigating the descriptive potential of inner and initial layers of such deep convolutional networks, and the approximation of feature spaces before aligning the data distribution in order to allow for better solutions, as well as the use of both labeled and unlabeled for feature learning. Besides the transfer learning methods, such as fine-tuning and manifold alignment, with use of classical evaluation metrics for recognition performance, a generalization metric between domains is also proposed to evaluate transfer learning. This thesis contributes with: an analysis of multiple descriptors contained in supervised deep networks; a new architecture with a loss function for semi-supervised deep networks (Weighted Label Loss), in which all available data, labeled or unlabeled, are incorporated to provide learning; and a new generalization metric (Cross-domain Feature Space Generalization Measure) that can be applied to any model and evaluation system
Título em português
Aprendizado de características e sua transferência entre domínios em tarefas de reconhecimento em imagens e vídeos
Palavras-chave em português
Alinhamento de variedades
Aprendizado profundo
Cruzamento de domínios
Medidas de generalização
Transferência de aprendizado de características
Resumo em português
A transferência de aprendizado de características objetiva reaproveitar o conhecimento adquirido previamente em um conjunto de dados de origem para aplicá-lo em outro domínio ou tarefa alvo. Um requerimento para a transferência de conhecimento é a qualidade dos espaços de características obtidos, em que métodos de aprendizado profundo são altamente aplicados por proverem descritores discriminativos e generalizáveis, em particular para imagens e vídeos, que são o foco desse trabalho. Neste contexto, as principais questões incluem: o que transferir alinhando as distribuições dos dados de origem e alvo, e ajustando os parâmetros para aumentar a capacidade de generalização dos modelos; como transferir investigando métodos que trabalham tanto sobre os espaços de características quanto sobre os modelos aprendidos; e quando transferir estudando quais dados são mais adequados para transferência, considerando discrepâncias entre os dados origem e alvo, como diferentes meios de aquisição, presença de objetos confusos e iluminação, entre outros. Esse trabalho defende o foco na transferência dos espaços de características aprendidos por redes neurais convolucionais, em particular na investigação do potencial descritivo das camadas iniciais e internas das redes convolucionais profundas e a aproximação dos espaços de características antes do alinhamento das distribuições de dados para disponibilizar melhores soluções, e no uso de dados rotulados e não rotulados para aprendizado de características. Além dos métodos de transferência de aprendizado, como fine-tuning e manifold alignment com uso de medidas clássicas de avaliação de performance de reconhecimento, uma métrica de generalização entre domínios foi também proposta para avaliar a transferência de aprendizado. Esta tese contribui com: uma análise de múltiplos descritores contidos em redes profundas supervisionadas; uma nova arquitetura com função de perda para redes profundas semi-supervisionadas (Weighted Label Loss), em que todos os dados disponíveis, rotulados ou não, são incorporados para prover aprendizado; e uma nova medida de generalização (Cross-domain Feature Space Generalization Measure) que pode ser aplicada para qualquer modelo e sistema de avaliação.
 
AVISO - A consulta a este documento fica condicionada na aceitação das seguintes condições de uso:
Este trabalho é somente para uso privado de atividades de pesquisa e ensino. Não é autorizada sua reprodução para quaisquer fins lucrativos. Esta reserva de direitos abrange a todos os dados do documento bem como seu conteúdo. Na utilização ou citação de partes do documento é obrigatório mencionar nome da pessoa autora do trabalho.
Data de Publicação
2020-03-20
 
AVISO: Saiba o que são os trabalhos decorrentes clicando aqui.
Todos os direitos da tese/dissertação são de seus autores
CeTI-SC/STI
Biblioteca Digital de Teses e Dissertações da USP. Copyright © 2001-2024. Todos os direitos reservados.