• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Mémoire de Maîtrise
DOI
https://doi.org/10.11606/D.55.2021.tde-08112021-115011
Document
Auteur
Nom complet
André Luiz Dutra Costa
Adresse Mail
Unité de l'USP
Domain de Connaissance
Date de Soutenance
Editeur
São Carlos, 2021
Directeur
Jury
Goularte, Rudinei (Président)
Farias, Mylene Christine Queiroz de
Marques Neto, Manoel Carvalho
Wolf, Denis Fernando
Titre en portugais
Reversão anaglífica - um novo método baseado em cálculo de correspondências robusto a diferenças radiométricas
Mots-clés en portugais
Anáglifo
Correspondência estéreo
Estereoscopia
Reversão anaglífica
Resumé en portugais
O processo de recuperação de um par estéreo a partir de um anáglifo, chamado de reversão anaglífica, promove alguns benefícios como: a visualização de imagens e vídeos anaglíficos legados, a independência de dispositivos de visualização, e a economia de volume de dados para fins de armazenamento e transmissão de conteúdo estéreo. Contudo, as técnicas de reversão anaglífica necessitam comparar os canais de cor do anáglifo buscando por correspondências a fim restaurar os canais eliminados durante a codificação anaglífica, o quê é uma tarefa difícil devido às diferenças radiométricas presentes nesses canais. Os trabalhos relacionados, até onde se tem conhecimento, não oferecem meios especificamente projetados para lidar com essas diferenças, limitando a qualidade final das imagens recuperadas. Assim, este trabalho propõe uma nova técnica de reversão anaglífica que realiza os cálculos de correspondência estéreo por meio de um descritor de pixel robusto às variações radiométricas existentes entre os canais do anáglifo. Testes objetivos e subjetivos realizados indicam que a técnica proposta supera em qualidade os trabalhos considerados estado-da-arte com custo computacional compatível.
Titre en anglais
Anaglyph reversion - a new method based on stereo matching computation robust to radiometric differences
Mots-clés en anglais
Anaglyph
Anaglyph reversion
Stereo matching
Stereoscopy
Resumé en anglais
The recovering a stereo pair from an anaglyph, called anaglyph reversion, promotes some benefits such as viewing legacy anaglyphic images and videos, independence of viewing devices, and save data volume for stereo content storage and trasmission purposes. However, anaglyphic reversion techniques need to compare the anaglyph color channels searching for matches in order to restore the channels eliminated during anaglyphic encoding, which is a difficult task due to the radiometric differences in these channels. Related works do not offer means specifically designed to deal with these differences, limiting the final quality of the recovered images. Thus, this work proposes a new anaglyphic reversion technique that performs stereo correspondence calculations using a pixel descriptor robust to the radiometric variations existing between the anaglyph channels. Objective and subjective tests performed indicate that the proposed technique exceeds in quality state-of-the-art works with similar computational cost.
 
AVERTISSEMENT - Regarde ce document est soumise à votre acceptation des conditions d'utilisation suivantes:
Ce document est uniquement à des fins privées pour la recherche et l'enseignement. Reproduction à des fins commerciales est interdite. Cette droits couvrent l'ensemble des données sur ce document ainsi que son contenu. Toute utilisation ou de copie de ce document, en totalité ou en partie, doit inclure le nom de l'auteur.
Date de Publication
2021-11-08
 
AVERTISSEMENT: Apprenez ce que sont des œvres dérivées cliquant ici.
Tous droits de la thèse/dissertation appartiennent aux auteurs
CeTI-SC/STI
Bibliothèque Numérique de Thèses et Mémoires de l'USP. Copyright © 2001-2024. Tous droits réservés.