• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Tese de Doutorado
DOI
https://doi.org/10.11606/T.45.2023.tde-28062023-204100
Documento
Autor
Nome completo
Carlos Eduardo Leão Elmadjian
E-mail
Unidade da USP
Área do Conhecimento
Data de Defesa
Imprenta
São Paulo, 2023
Orientador
Banca examinadora
Morimoto, Carlos Hitoshi (Presidente)
Hirata Junior, Roberto
Kasneci, Enkelejda
Pfeiffer, Thies
Porta, Marco
Título em inglês
Towards wearable gaze interaction
Palavras-chave em inglês
3D gaze estimation
Eye pattern recognition
Gaze-based micro-interactions
Wearable computing
Resumo em inglês
Human-computer interaction has been facing a significant shift from the traditional paradigm of WIMP interfaces using desktop PCs and notebooks to a more distributed and heterogeneous one, where interaction occurs with multiple devices, including mobile phones, smart watches, smart glasses, and IoT-enabled devices. As a result, traditional means of interaction may not provide a satisfactory user experience in such a scenario. In this thesis, we look into gaze-based interaction as an alternative to comply with this new paradigm and some of its fundamental challenges. In particular, we investigate new techniques to recognize eye movement patterns, 3D gaze estimation, and gaze-based interactive methods for micro-interaction scenarios. Though our ultimate goal is to enhance gaze interaction in wearable computing, we broke down this objective into several fronts, namely improving gaze estimation for 3D environments using wearable eye-tracking devices, enhancing real-time eye movement pattern recognition to support context-aware systems using deep temporal convolutional models and scale-invariant methods, and creating novel gaze interaction methods with a just-look-to-select mechanism, in spite of the Midas touch problem. Our results demonstrate that a 3D wearable gaze estimation procedure is feasible, though still very challenging; that our techniques for eye pattern recognition are able to achieve the best of both worlds: state-of-the-art accuracy while being computationally lightweight; and that our interactive techniques, such as GazeBar and V-Switch, have the potential to improve micro-interactions without the common safety mechanisms deployed to gaze-based methods. Though there are still significant obstacles to be addressed in future work, including thorough user studies and complex context detection strategies, this thesis shines new light towards gaze-based interaction and related challenges in this paradigm-shifting environment.
Título em português
Interação pelo olhar em computação vestível
Palavras-chave em português
Computação vestível
Estimação do olhar em 3D
Microinterações pelo olhar
Reconhecimento de padrões do olhar
Resumo em português
A interação humano-computador vem enfrentando uma mudança significativa do paradigma tradicional de interfaces WIMP utilizando PCs e notebooks para um ambiente mais distribuído e heterogêneo, onde a interação ocorre com múltiplos dispositivos, incluindo telefones celulares, relógios inteligentes, óculos inteligentes e dispositivos IoT. Como consequência, meios tradicionais de interação podem não fornecer uma usabilidade e experiência do usuário satisfatórias nesse cenário. Nesta tese, investigamos a interação baseada em olhar como uma alternativa para atender a esse novo paradigma e alguns dos seus desafios fundamentais. Em particular, investigamos novas técnicas para reconhecimento de padrões de movimento ocular, estimativa de olhar em 3D e métodos interativos baseados em olhar para cenários de microinteração. Embora nosso objetivo final seja aprimorar a interação por meio do olhar na computação vestível, dividimos esse objetivo em várias frentes, a saber: aprimorar a estimativa de olhar para ambientes em 3D usando dispositivos vestíveis de rastreamento do olhar; aprimorar o reconhecimento em tempo real de padrões de movimento ocular para suportar sistemas sensíveis ao contexto usando modelos convolucionais temporais profundos e métodos invariantes à escala; e criar novos métodos de interação por meio do olhar caracterizados pelo mecanismo de "olhar para selecionar", a despeito do problema do "toque de Midas". Nossos resultados demonstram que um procedimento de estimativa de olhar em 3D para computação vestível é possível, embora ainda muito desafiador; que nossas técnicas de reconhecimento de padrões de olhar são capazes de alcançar o melhor dos dois mundos: acurácia do estado da arte sendo computacionalmente leves; e que nossas técnicas interativas, como GazeBar e V-Switch, têm o potencial de melhorar as microinterações sem os mecanismos de segurança comuns implantados nos métodos baseados em olhar. Embora ainda existam obstáculos significativos a serem abordados em trabalhos futuros, incluindo estudos de usuário mais aprofundados e estratégias de detecção de contexto mais complexas, esta tese joga luz em direção à interação baseada em olhar e seus desafios relacionados neste ambiente de mudança de paradigma.
 
AVISO - A consulta a este documento fica condicionada na aceitação das seguintes condições de uso:
Este trabalho é somente para uso privado de atividades de pesquisa e ensino. Não é autorizada sua reprodução para quaisquer fins lucrativos. Esta reserva de direitos abrange a todos os dados do documento bem como seu conteúdo. Na utilização ou citação de partes do documento é obrigatório mencionar nome da pessoa autora do trabalho.
Data de Publicação
2023-06-29
 
AVISO: Saiba o que são os trabalhos decorrentes clicando aqui.
Todos os direitos da tese/dissertação são de seus autores
CeTI-SC/STI
Biblioteca Digital de Teses e Dissertações da USP. Copyright © 2001-2024. Todos os direitos reservados.