• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Mémoire de Maîtrise
DOI
https://doi.org/10.11606/D.3.2020.tde-31052021-114333
Document
Auteur
Nom complet
Juliana Cesaro
Adresse Mail
Unité de l'USP
Domain de Connaissance
Date de Soutenance
Editeur
São Paulo, 2020
Directeur
Jury
Cozman, Fabio Gagliardi (Président)
Munhoz, Hugo Neri
Vasconcelos, Marisa Affonso
Titre en portugais
Avaliação de Discriminação em Aprendizagem de Máquina usando Técnicas de Interpretabilidade.
Mots-clés en portugais
Discriminação
Inteligência artificial
Teoria dos jogos
Resumé en portugais
Preconceitos presentes na sociedade podem criar vieses em modelos aprendidos a partir de dados. Para avaliar a existência de viés, alguns pesquisadores propõem o uso de definições de "justiça", enquanto outros usam técnicas de interpretabilidade. Porém, parece não existir nenhum estudo que compara as medidas de justiça (através de várias definições de justiça) e os resultados de interpretabilidade (através de várias noções de interpretabilidade). Nesse trabalho foi proposto metodologias para examinar e comparar essas técnicas. A ideia ´e avaliar como as medidas de justiça e o resultado de interpretabilidade variam em um modelo com viés e em outro sem viés. O foco foi no uso do SHAP (SHapley Additive exPlanations) como técnica de interpretabilidade, que usa conceito da teoria dos jogos cooperativos para calcular a contribuição de cada atributo em uma previsão gerada pelo modelo; foi apresentado resultados com alguns conjuntos de dados propensos a injustiça. Com os experimentos foi identificado qual a medida de justiça tem relação alta e baixa com o resultado do SHAP, o que auxiliaria a decidir quando é recomendável usar o SHAP como técnica de interpretabilidade ou quando é melhor usar outra técnica.
Titre en anglais
Measuring fairness in machine learning through interpretability techniques.
Mots-clés en anglais
Fairness
Feature importance
Interpretability
SHAP
Shapley
Resumé en anglais
Prejudices present in society and in data can introduce biases in a model. In order to evaluate the presence of bias in machine learning, some proposals use fairness measures, while others use interpretability techniques. However, there seems to be no study that compares fairness measures (across various definitions of fairness) and interpretability results (across various notions of interpretability). In this work, we propose ways to evaluate and compare such notions. The idea is to evaluate how fairness measures and interpretability results vary in a model with bias and another one without bias. We focus in particular on SHAP (SHapley Additive exPlanations) as the interpretability technique, which uses cooperative game theory concepts to calculate each feature contribution in a forecast generated by the model; we present results for a number of unfairness-prone datasets. The experiments allow us to identify the fairness measures with high and low connection with SHAP results, which would help decide when it is recommended to use SHAP as an interpretability technique or when it is better to use another technique.
 
AVERTISSEMENT - Regarde ce document est soumise à votre acceptation des conditions d'utilisation suivantes:
Ce document est uniquement à des fins privées pour la recherche et l'enseignement. Reproduction à des fins commerciales est interdite. Cette droits couvrent l'ensemble des données sur ce document ainsi que son contenu. Toute utilisation ou de copie de ce document, en totalité ou en partie, doit inclure le nom de l'auteur.
Date de Publication
2021-06-04
 
AVERTISSEMENT: Apprenez ce que sont des œvres dérivées cliquant ici.
Tous droits de la thèse/dissertation appartiennent aux auteurs
CeTI-SC/STI
Bibliothèque Numérique de Thèses et Mémoires de l'USP. Copyright © 2001-2022. Tous droits réservés.