• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Thèse de Doctorat
DOI
https://doi.org/10.11606/T.55.2020.tde-19032020-083537
Document
Auteur
Nom complet
Fernando Pereira dos Santos
Adresse Mail
Unité de l'USP
Domain de Connaissance
Date de Soutenance
Editeur
São Carlos, 2020
Directeur
Jury
Ponti, Moacir Antonelli (Président)
Cerri, Ricardo
Santos, Jefersson Alex dos
Traina, Agma Juci Machado
Titre en anglais
Features transfer learning between domains for image and video recognition tasks
Mots-clés en anglais
Cross-domain
Deep learning
Features transfer learning
Generalization measures
Manifold alignment
Resumé en anglais
Feature transfer learning aims to reuse knowledge previously acquired in some source dataset to apply it in another target data and/or task. A requirement for the transfer of knowledge is the quality of feature spaces obtained, in which deep learning methods are widely applied since those provide discriminative and general descriptors. In this context, the main questions include: what to transfer align the data distribution from source and target, and adjusting the parameters to increase the models generalization capability; how to transfer investigating methods that work on the features spaces or also on the learned models; and when to transfer studying which datasets are mode adequate for transferring, considering discrepancies between source and target data, such as they different acquisition settings, clutter and illumination variation, among others. This thesis advocates that the focus should be in transferring feature spaces, learned by convolutional neural networks, in particular investigating the descriptive potential of inner and initial layers of such deep convolutional networks, and the approximation of feature spaces before aligning the data distribution in order to allow for better solutions, as well as the use of both labeled and unlabeled for feature learning. Besides the transfer learning methods, such as fine-tuning and manifold alignment, with use of classical evaluation metrics for recognition performance, a generalization metric between domains is also proposed to evaluate transfer learning. This thesis contributes with: an analysis of multiple descriptors contained in supervised deep networks; a new architecture with a loss function for semi-supervised deep networks (Weighted Label Loss), in which all available data, labeled or unlabeled, are incorporated to provide learning; and a new generalization metric (Cross-domain Feature Space Generalization Measure) that can be applied to any model and evaluation system
Titre en portugais
Aprendizado de características e sua transferência entre domínios em tarefas de reconhecimento em imagens e vídeos
Mots-clés en portugais
Alinhamento de variedades
Aprendizado profundo
Cruzamento de domínios
Medidas de generalização
Transferência de aprendizado de características
Resumé en portugais
A transferência de aprendizado de características objetiva reaproveitar o conhecimento adquirido previamente em um conjunto de dados de origem para aplicá-lo em outro domínio ou tarefa alvo. Um requerimento para a transferência de conhecimento é a qualidade dos espaços de características obtidos, em que métodos de aprendizado profundo são altamente aplicados por proverem descritores discriminativos e generalizáveis, em particular para imagens e vídeos, que são o foco desse trabalho. Neste contexto, as principais questões incluem: o que transferir alinhando as distribuições dos dados de origem e alvo, e ajustando os parâmetros para aumentar a capacidade de generalização dos modelos; como transferir investigando métodos que trabalham tanto sobre os espaços de características quanto sobre os modelos aprendidos; e quando transferir estudando quais dados são mais adequados para transferência, considerando discrepâncias entre os dados origem e alvo, como diferentes meios de aquisição, presença de objetos confusos e iluminação, entre outros. Esse trabalho defende o foco na transferência dos espaços de características aprendidos por redes neurais convolucionais, em particular na investigação do potencial descritivo das camadas iniciais e internas das redes convolucionais profundas e a aproximação dos espaços de características antes do alinhamento das distribuições de dados para disponibilizar melhores soluções, e no uso de dados rotulados e não rotulados para aprendizado de características. Além dos métodos de transferência de aprendizado, como fine-tuning e manifold alignment com uso de medidas clássicas de avaliação de performance de reconhecimento, uma métrica de generalização entre domínios foi também proposta para avaliar a transferência de aprendizado. Esta tese contribui com: uma análise de múltiplos descritores contidos em redes profundas supervisionadas; uma nova arquitetura com função de perda para redes profundas semi-supervisionadas (Weighted Label Loss), em que todos os dados disponíveis, rotulados ou não, são incorporados para prover aprendizado; e uma nova medida de generalização (Cross-domain Feature Space Generalization Measure) que pode ser aplicada para qualquer modelo e sistema de avaliação.
 
AVERTISSEMENT - Regarde ce document est soumise à votre acceptation des conditions d'utilisation suivantes:
Ce document est uniquement à des fins privées pour la recherche et l'enseignement. Reproduction à des fins commerciales est interdite. Cette droits couvrent l'ensemble des données sur ce document ainsi que son contenu. Toute utilisation ou de copie de ce document, en totalité ou en partie, doit inclure le nom de l'auteur.
Date de Publication
2020-03-20
 
AVERTISSEMENT: Apprenez ce que sont des œvres dérivées cliquant ici.
Tous droits de la thèse/dissertation appartiennent aux auteurs
CeTI-SC/STI
Bibliothèque Numérique de Thèses et Mémoires de l'USP. Copyright © 2001-2024. Tous droits réservés.