• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Master's Dissertation
DOI
https://doi.org/10.11606/D.59.2020.tde-18052020-200902
Document
Author
Full name
Melina Boratto Urtado
Institute/School/College
Knowledge Area
Date of Defense
Published
Ribeirão Preto, 2020
Supervisor
Committee
Fukusima, Sergio Sheiji (President)
Alves, Nelson Torro
Osorio, Flavia de Lima
Title in Portuguese
Percepção de faces neutras com análise de contexto e efeito Kuleshov
Keywords in Portuguese
Contexto emocional
Efeito Kuleshov
Percepção de faces
Rastreamento ocular
Abstract in Portuguese
Nesta pesquisa investigamos como é realizada a inspeção de faces neutras quando precedidas por imagens contextuais, verificando se essas faces são julgadas como emocionais devido ao efeito contextual prévio, como trata o efeito Kuleshov. Investigamos com a técnica de rastreamento ocular se o Tempo de Fixação (TF) e o Número de Fixação (NF) sobre as Áreas de Interesse (AOI) diferem nessas faces quando apresentadas em diferentes contextos emocionais. A nossa hipótese foi de que se o efeito Kuleshov ocorresse, poderíamos verificar diferenças no padrão de rastreamento ocular nessas faces, que poderiam ser semelhantes aos padrões encontrados em faces emocionais, ou seja, com maior processamento nas AOI inferiores para faces julgadas como emocionalmente felizes e maior processamento nas AOI superiores para faces consideradas emocionalmente tristes. Fizeram parte desta pesquisa 56 sujeitos, majoritariamente acadêmicos, saudáveis e de ambos os sexos. O experimento foi conduzido em uma única sessão, composta por três etapas: 1) Teste de acuidade visual (Freiburg Visual Acuity Test); 2) Calibração do equipamento eye tracker; 3) Apresentação do estímulo contextual (imagem de cena de alegria, tristeza ou neutro; ruído), seguido por uma imagem facial neutra (feminina ou masculina) e um questionário para categorização das emoções. O experimento foi repetido seis vezes consecutivas, com os três contextos combinados para cada uma das faces neutras (feminina e masculina). Na análise pós-experimento, foi utilizado o Eye Movements Metrics and Visualization (EyeMMV) para obtenção das medidas de fixação, o que permitiu a análise e visualização dos dados coletados pelo eye tracker de acordo com o mapeamento das AOI. Por fim, aplicamos o teste de Friedman (medida alternativa à Análise de Variância com medidas repetidas ANOVA One-Way) em [2 faces (masculina, feminina) x 4 AOIs x 3 contextos emocionais (alegria, tristeza e neutro)] para análise dos dados intra-sujeitos. O rastreamento ocular foi diferente nas faces apresentadas no contexto de tristeza quando comparado com o contexto neutro, com maior TF na região dos lábios para as faces feminina e masculina. O NF foi maior no nariz para face feminina quando comparado à face masculina apresentada no contexto neutro. Em relação ao julgamento emocional, as faces feminina e masculina foram categorizadas como neutras em todos os contextos.
Title in English
Perception of neutral faces with context and analysis of the Kuleshov effect
Keywords in English
Emotional context
Eye tracking
Face perception
Kuleshov effect
Abstract in English
In this research we investigate how the inspection of neutral faces is performed when preceded by contextual images, and if these faces are judged as emotional due to the previous contextual effect; as expected by the Kuleshov effect. We've investigated with the eye tracking technique whether the time of fixation and number of fixation on Areas of Interest (AOI) change in these faces when presented over different emotional contexts. We hypothesize that if the Kuleshov effect really occurs we should see differences on the visual inspection for these neutral faces, presenting ocular movement patterns similar to those found and reported for emotional faces, ie, with higher processing on the lower AOI for faces judged as emotionally happy and higher processing on the upper AOI for faces judged as emotionally sad. In this study, we included 56 healthy subjects, predominantly academic (female and male). The experiment was conducted in a single section consisting of three stages: 1) Visual Acuity Test (Freiburg Visual Acuity Test); 2) Calibration of eye tracker; 3) Presentation of the contextual stimulus (image of joy, image of sadness or neutral image; noise), followed by a neutral facial image (female or male) and a questionnaire for emotional categorization. The experiment was repeated six consecutive times with the three emotional contexts combined with each of the neutral faces (female and male). In the post-experiment analysis, the Eye Movements Metrics and Visualization (EyeMMV) was used to obtain the fixation measure, which allowed the analysis and visualization of data collected by the eye tracker according to the AOI mapping of faces. Finally, the Friedman test (alternative to Repeated Measures ANOVA One-Way) [2 faces (male, female) x 4 AOIs x 3 emotional contexts (of joy, sadness and neutral)] was apllied to the analysis of within-subject data. The fixation was different in the faces presented on the context of sadness with longer time in the region of the lips for female and male faces. The number of fixation was greater in the region of the nose for female faces when compared to male faces presented on neutral context. The results showed no difference for the emotional judgment between female and male faces; the faces were judged as neutral in all contexts.
 
WARNING - Viewing this document is conditioned on your acceptance of the following terms of use:
This document is only for private use for research and teaching activities. Reproduction for commercial use is forbidden. This rights cover the whole data about this document as well as its contents. Any uses or copies of this document in whole or in part must include the author's name.
Publishing Date
2020-07-14
 
WARNING: Learn what derived works are clicking here.
All rights of the thesis/dissertation are from the authors
CeTI-SC/STI
Digital Library of Theses and Dissertations of USP. Copyright © 2001-2024. All rights reserved.