• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Dissertação de Mestrado
DOI
https://doi.org/10.11606/D.55.2021.tde-08112021-115011
Documento
Autor
Nome completo
André Luiz Dutra Costa
E-mail
Unidade da USP
Área do Conhecimento
Data de Defesa
Imprenta
São Carlos, 2021
Orientador
Banca examinadora
Goularte, Rudinei (Presidente)
Farias, Mylene Christine Queiroz de
Marques Neto, Manoel Carvalho
Wolf, Denis Fernando
Título em português
Reversão anaglífica - um novo método baseado em cálculo de correspondências robusto a diferenças radiométricas
Palavras-chave em português
Anáglifo
Correspondência estéreo
Estereoscopia
Reversão anaglífica
Resumo em português
O processo de recuperação de um par estéreo a partir de um anáglifo, chamado de reversão anaglífica, promove alguns benefícios como: a visualização de imagens e vídeos anaglíficos legados, a independência de dispositivos de visualização, e a economia de volume de dados para fins de armazenamento e transmissão de conteúdo estéreo. Contudo, as técnicas de reversão anaglífica necessitam comparar os canais de cor do anáglifo buscando por correspondências a fim restaurar os canais eliminados durante a codificação anaglífica, o quê é uma tarefa difícil devido às diferenças radiométricas presentes nesses canais. Os trabalhos relacionados, até onde se tem conhecimento, não oferecem meios especificamente projetados para lidar com essas diferenças, limitando a qualidade final das imagens recuperadas. Assim, este trabalho propõe uma nova técnica de reversão anaglífica que realiza os cálculos de correspondência estéreo por meio de um descritor de pixel robusto às variações radiométricas existentes entre os canais do anáglifo. Testes objetivos e subjetivos realizados indicam que a técnica proposta supera em qualidade os trabalhos considerados estado-da-arte com custo computacional compatível.
Título em inglês
Anaglyph reversion - a new method based on stereo matching computation robust to radiometric differences
Palavras-chave em inglês
Anaglyph
Anaglyph reversion
Stereo matching
Stereoscopy
Resumo em inglês
The recovering a stereo pair from an anaglyph, called anaglyph reversion, promotes some benefits such as viewing legacy anaglyphic images and videos, independence of viewing devices, and save data volume for stereo content storage and trasmission purposes. However, anaglyphic reversion techniques need to compare the anaglyph color channels searching for matches in order to restore the channels eliminated during anaglyphic encoding, which is a difficult task due to the radiometric differences in these channels. Related works do not offer means specifically designed to deal with these differences, limiting the final quality of the recovered images. Thus, this work proposes a new anaglyphic reversion technique that performs stereo correspondence calculations using a pixel descriptor robust to the radiometric variations existing between the anaglyph channels. Objective and subjective tests performed indicate that the proposed technique exceeds in quality state-of-the-art works with similar computational cost.
 
AVISO - A consulta a este documento fica condicionada na aceitação das seguintes condições de uso:
Este trabalho é somente para uso privado de atividades de pesquisa e ensino. Não é autorizada sua reprodução para quaisquer fins lucrativos. Esta reserva de direitos abrange a todos os dados do documento bem como seu conteúdo. Na utilização ou citação de partes do documento é obrigatório mencionar nome da pessoa autora do trabalho.
Data de Publicação
2021-11-08
 
AVISO: Saiba o que são os trabalhos decorrentes clicando aqui.
Todos os direitos da tese/dissertação são de seus autores
CeTI-SC/STI
Biblioteca Digital de Teses e Dissertações da USP. Copyright © 2001-2024. Todos os direitos reservados.