• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Mémoire de Maîtrise
DOI
https://doi.org/10.11606/D.55.2022.tde-23052022-150550
Document
Auteur
Nom complet
Marcos Paulo Silva Gôlo
Adresse Mail
Unité de l'USP
Domain de Connaissance
Date de Soutenance
Editeur
São Carlos, 2022
Directeur
Jury
Marcacini, Ricardo Marcondes (Président)
Faleiros, Thiago de Paulo
Matsubara, Edson Takashi
Silva, Diego Furtado
Titre en anglais
Text Representation through Multimodal Variational Autoencoder for One-Class Learning
Mots-clés en anglais
Multimodal variational autoencoder
One class learning
Text classification
Resumé en anglais
Automatic text classification has become increasingly relevant for several applications, both for academic and business purposes. Traditionally, multi-class learning methods perform text classification, which requires prior labeling of textual datasets for all classes. These methods fail when there is no well-defined information about the texts classes and require a great effort to label the training set. One-Class Learning (OCL) can mitigate these limitations since the model training is performed only with labeled examples of an interest class, reducing the users labeling effort and turning the classification more appropriate for open-domain applications. However, OCL is more challenging due to the lack of counterexamples for model training. Thus, OCL requires more robust text representations. On the other hand, most studies use unimodal representations, even though different domains contain other types of information that can be interpreted as distinct modalities for textual data. In this sense, the Multimodal Variational Autoencoder (MVAE) was proposed. MVAE is a multimodal method that learns a new representation from the fusion of different modalities, capturing the characteristics of the interest class in a more adequate way. MVAE explores semantic and syntactic representations, density, linguistic and spatial information as modalities. Furthermore, MVAE is based on a Variational Autoencoder, considered one of the state-of-the-art for learning representations. Finally, the main contributions of this dissertation are: (i) a multimodal method to represent texts in the OCL scenario; (ii) detection of fake news through representations generated by MVAE; (iii) applying MVAE to represent app reviews in the filtering of relevant app reviews; and (iv) sensing events represented by the MVAE.
Titre en portugais
Variational Autoencoder Multimodal para Representação de Textos na Classificação baseada em Uma Única Classe
Mots-clés en portugais
Aprendizado de máquina baseado em uma única classe
Classificação de textos
Variational autoencoders multimodais
Resumé en portugais
A classificação automática de textos tem se tornado cada vez mais relevante tanto para fins aca- dêmicos quanto empresariais. Tradicionalmente, essa classificação é realizada pelo aprendizado de máquina multi-classe, o qual necessita de rotulação prévia dos textos de todas as classes do problema. Essa abordagem pode falhar quando não se tem um conhecimento bem definido das classes do problema, além de exigir um grande esforço na rotulação de exemplos de treinamento para cada classe. Uma abordagem conhecida como One-Class Learning (OCL) pode sanar essas limitações, uma vez que seu treinamento é realizado somente com exemplos rotulados de uma classe de interesse, diminuindo assim o esforço de rotulação do usuário e tornando a classificação mais apropriada para aplicações envolvendo domínio aberto. O OCL é mais desafi- ador devido à falta de contra-exemplos para o treinamento do modelo. Portanto, OCL requer representações textuais mais robustas. Por outro lado, a maioria dos estudos usa representações unimodais, mesmo que diferentes domínios contenham outros tipos de informações que podem ser interpretados como modalidades distintas para dados textuais. Nesse sentido, foi proposto o Multimodal Variational Autoencoder (MVAE). O MVAE é um método multimodal que aprende uma nova representação a partir da fusão das modalidades distintas, capturando de forma mais adequada às características da classe de interesse. O MVAE foi explorado com as modalidades de representações semânticas e sintáticas, informações de densidade, linguísticas e espaciais. Além disso, o MVAE é baseado em um Variational Autoencoder que é considerado um dos estados-da-arte para aprendizado de representações. Por fim, as principais contribuições desta dissertação são: (i) um método multimodal para representar textos no cenário de OCL; (ii) detec- ção de notícias falsas por meio de representações geradas pelo MVAE; (iii) aplicação do MVAE para representar revisões de app no filtro de revisões de app relevantes; e (iv) sensoriamento de eventos representados pelo MVAE.
 
AVERTISSEMENT - Regarde ce document est soumise à votre acceptation des conditions d'utilisation suivantes:
Ce document est uniquement à des fins privées pour la recherche et l'enseignement. Reproduction à des fins commerciales est interdite. Cette droits couvrent l'ensemble des données sur ce document ainsi que son contenu. Toute utilisation ou de copie de ce document, en totalité ou en partie, doit inclure le nom de l'auteur.
Date de Publication
2022-05-23
 
AVERTISSEMENT: Apprenez ce que sont des œvres dérivées cliquant ici.
Tous droits de la thèse/dissertation appartiennent aux auteurs
CeTI-SC/STI
Bibliothèque Numérique de Thèses et Mémoires de l'USP. Copyright © 2001-2024. Tous droits réservés.