• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Dissertação de Mestrado
DOI
https://doi.org/10.11606/D.3.2020.tde-31052021-114333
Documento
Autor
Nome completo
Juliana Cesaro
E-mail
Unidade da USP
Área do Conhecimento
Data de Defesa
Imprenta
São Paulo, 2020
Orientador
Banca examinadora
Cozman, Fabio Gagliardi (Presidente)
Munhoz, Hugo Neri
Vasconcelos, Marisa Affonso
Título em português
Avaliação de Discriminação em Aprendizagem de Máquina usando Técnicas de Interpretabilidade.
Palavras-chave em português
Discriminação
Inteligência artificial
Teoria dos jogos
Resumo em português
Preconceitos presentes na sociedade podem criar vieses em modelos aprendidos a partir de dados. Para avaliar a existência de viés, alguns pesquisadores propõem o uso de definições de "justiça", enquanto outros usam técnicas de interpretabilidade. Porém, parece não existir nenhum estudo que compara as medidas de justiça (através de várias definições de justiça) e os resultados de interpretabilidade (através de várias noções de interpretabilidade). Nesse trabalho foi proposto metodologias para examinar e comparar essas técnicas. A ideia ´e avaliar como as medidas de justiça e o resultado de interpretabilidade variam em um modelo com viés e em outro sem viés. O foco foi no uso do SHAP (SHapley Additive exPlanations) como técnica de interpretabilidade, que usa conceito da teoria dos jogos cooperativos para calcular a contribuição de cada atributo em uma previsão gerada pelo modelo; foi apresentado resultados com alguns conjuntos de dados propensos a injustiça. Com os experimentos foi identificado qual a medida de justiça tem relação alta e baixa com o resultado do SHAP, o que auxiliaria a decidir quando é recomendável usar o SHAP como técnica de interpretabilidade ou quando é melhor usar outra técnica.
Título em inglês
Measuring fairness in machine learning through interpretability techniques.
Palavras-chave em inglês
Fairness
Feature importance
Interpretability
SHAP
Shapley
Resumo em inglês
Prejudices present in society and in data can introduce biases in a model. In order to evaluate the presence of bias in machine learning, some proposals use fairness measures, while others use interpretability techniques. However, there seems to be no study that compares fairness measures (across various definitions of fairness) and interpretability results (across various notions of interpretability). In this work, we propose ways to evaluate and compare such notions. The idea is to evaluate how fairness measures and interpretability results vary in a model with bias and another one without bias. We focus in particular on SHAP (SHapley Additive exPlanations) as the interpretability technique, which uses cooperative game theory concepts to calculate each feature contribution in a forecast generated by the model; we present results for a number of unfairness-prone datasets. The experiments allow us to identify the fairness measures with high and low connection with SHAP results, which would help decide when it is recommended to use SHAP as an interpretability technique or when it is better to use another technique.
 
AVISO - A consulta a este documento fica condicionada na aceitação das seguintes condições de uso:
Este trabalho é somente para uso privado de atividades de pesquisa e ensino. Não é autorizada sua reprodução para quaisquer fins lucrativos. Esta reserva de direitos abrange a todos os dados do documento bem como seu conteúdo. Na utilização ou citação de partes do documento é obrigatório mencionar nome da pessoa autora do trabalho.
Data de Publicação
2021-06-04
 
AVISO: Saiba o que são os trabalhos decorrentes clicando aqui.
Todos os direitos da tese/dissertação são de seus autores
CeTI-SC/STI
Biblioteca Digital de Teses e Dissertações da USP. Copyright © 2001-2024. Todos os direitos reservados.