• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Disertación de Maestría
DOI
https://doi.org/10.11606/D.55.2023.tde-03072023-135346
Documento
Autor
Nombre completo
Tobias Mesquita Silva da Veiga
Dirección Electrónica
Instituto/Escuela/Facultad
Área de Conocimiento
Fecha de Defensa
Publicación
São Carlos, 2023
Director
Tribunal
Nonato, Luis Gustavo (Presidente)
Medina, Jorge Luis Poco
Ponti, Moacir Antonelli
Vieira, Thales Miranda de Almeida
Título en inglés
Scalable Losses in Session-based Recommendation Systems with Deep Learning Architectures
Palabras clave en inglés
Attention mechanism
Deep learning
Graph leural networks
scalability
Session-based recommendation
Resumen en inglés
In recommendation systems the objective is to improve user experience by suggesting interesting contents and quickly providing what they look for. To help with this task, Deep learning has proven to be an efficient tool, especially in recommendation systems where user navigation sessions are anonymous. The nature of Deep Learning tools such as Recurrent Networks, Graph Neural Networks and Attention Mechanism makes them capable of dealing with variable length data in large scale, which is ideal for processing user sessions. In this context, many state of the art Deep Learning models have the limitation of not being scalable to large datasets, where the number of unique items to recommend is very large. In this work we explore how scalable loss functions can modify the results of previous works and we introduce a new challenging dataset to assess whether such modifications really make the models scalable.
Título en portugués
Funções de custo escaláveis em Sistemas de Recomendação baseados em Sessões com Arquiteturas de Aprendizagem Profunda
Palabras clave en portugués
Aprendizagem profunda
escalabilidade
Mecanismo de atenção
Recomendações baseadas em sessões
Redes neurais de grafos
Resumen en portugués
Em sistemas de recomendação, o objetivo é melhorar a experiência do usuário, sugerindo conteúdos interessantes e fornecendo rapidamente o que procuram. Para ajudar nesta tarefa, Deep Learning provou ser uma ferramenta eficiente, especialmente em sistemas de recomendação onde as informações de identificação do usuário não são possíveis de serem atribuídas às sessões do usuário. A natureza de algumas ferramentas de Aprendizagem Profunda como Redes Recorrentes, Redes Neurais em Grafos e Mecanismo de Atenção os torna capazes de lidar com dados de tamanho variável em grande escala, o que é ideal para processar sessões de usuário. Nesse contexto, muitos trabalhos estado da arte de Aprendizagem Profunda têm a limitação de não serem escaláveis para grandes conjuntos de dados, onde o número de itens únicos a serem recomendados é muito grande. Neste trabalho, exploramos como funções de custo escaláveis podem modificar os resultados de trabalhos anteriores e apresentamos um novo conjunto de dados mais desafiador para testar se essas modificações realmente tornam os modelos escaláveis.
 
ADVERTENCIA - La consulta de este documento queda condicionada a la aceptación de las siguientes condiciones de uso:
Este documento es únicamente para usos privados enmarcados en actividades de investigación y docencia. No se autoriza su reproducción con finalidades de lucro. Esta reserva de derechos afecta tanto los datos del documento como a sus contenidos. En la utilización o cita de partes del documento es obligado indicar el nombre de la persona autora.
Fecha de Publicación
2023-07-03
 
ADVERTENCIA: Aprenda que son los trabajos derivados haciendo clic aquí.
Todos los derechos de la tesis/disertación pertenecen a los autores
CeTI-SC/STI
Biblioteca Digital de Tesis y Disertaciones de la USP. Copyright © 2001-2024. Todos los derechos reservados.