• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Dissertação de Mestrado
DOI
https://doi.org/10.11606/D.100.2023.tde-22052023-205242
Documento
Autor
Nome completo
Carla Piazzon Ramos Vieira
E-mail
Unidade da USP
Área do Conhecimento
Data de Defesa
Imprenta
São Paulo, 2023
Orientador
Banca examinadora
Digiampietri, Luciano Antonio (Presidente)
Avila, Sandra Eliza Fontes de
Ribeiro, Marcio Moretto
Título em português
Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina
Palavras-chave em português
Aprendizado de Máquina
Explicabilidade
Interpretabilidade
Resumo em português
Atualmente, modelos de aprendizado de máquina são utilizados para tomar decisões nas mais diversas aplicações da sociedade. Erros humanos se tornam parte da inteligência artificial provando que nossas tendências de generalização são responsáveis pela seleção de uma regra que molda a criação desses modelos. Desta forma, é possível que, em vez de estar criando inovação, se está reforçando comportamentos discriminatórios existentes na sociedade. Nesse contexto, aumentar a interpretabilidade e identificar vieses discriminatórios nos modelos se tornam atividades extremamente relevantes. Acredita-se que a interpretabilidade pode ser uma ferramenta para garantir que não se violem requisitos éticos e legais. As explicações extraídas por técnicas de interpretabilidade facilitam que humanos identifiquem as possíveis deficiências dos modelos e analisem suas limitações. Desde 2016, o número de trabalhos envolvendo interpretabilidade de algoritmos e análises de justiça tem aumentado. No entanto, a área ainda carece de mais estudos que se dediquem a interpretabilidade global de modelos a fim de garantir o princípio de justiça. A presente dissertação apresenta os resultados de implementação de um método de explicabilidade global que tem como base o agrupamento de explicações locais. Os resultados mostraram que uma única explicação pode não ser suficiente para interpretar o modelo com um todo. De forma que o uso da técnica de agrupamento permitiu identificar comportamentos discriminatórios entre diferentes subgrupos. A análise dos resultados foi realizada por meio de comparações das explicações globais do modelo e explicações globais de cada grupo tendo como suporte análises exploratórias dos dados.
Título em inglês
Using clustering methods to achieve global explainability for machine learning models
Palavras-chave em inglês
Explainability
Interpretability
Machine Learning
Resumo em inglês
Nowadays, machine learning models are utilized to make decisions in the most diverse applications in society. Human errors become part of artificial intelligence, proving that our generalization tendencies are responsible for selecting the rules that shape the creation of these models. Thus, it is possible that, instead of creating innovation, existing discriminatory behaviors in society are being reinforced. In this context, increasing interpretability and identifying discriminatory biases in the models become extremely relevant activities. It is believed that interpretability can be a tool to ensure that ethical and legal requirements are not violated. The explanations extracted by interpretability techniques make it easier for humans to identify the possible deficiencies of the models and analyze their limitations. After 2016, the number of works involving the interpretability of algorithms and analyses of fairness increased. However, the area still needs more studies that are dedicated to the global interpretability of models to guarantee the principle of fairness. This dissertation aimed to generate global explanations by clustering local explanations. The results have shown that a single explanation may not be sufficient to interpret the model as a whole. Thus, the use of clustering techniques allowed us to compare the behavior of the models in different subgroups and identify discriminatory biases. As a way of evaluating the results, a comparative analysis was conducted between the model single global expression and the expression generated for each group with the support of exploratory data analysis.
 
AVISO - A consulta a este documento fica condicionada na aceitação das seguintes condições de uso:
Este trabalho é somente para uso privado de atividades de pesquisa e ensino. Não é autorizada sua reprodução para quaisquer fins lucrativos. Esta reserva de direitos abrange a todos os dados do documento bem como seu conteúdo. Na utilização ou citação de partes do documento é obrigatório mencionar nome da pessoa autora do trabalho.
Data de Publicação
2023-09-14
 
AVISO: Saiba o que são os trabalhos decorrentes clicando aqui.
Todos os direitos da tese/dissertação são de seus autores
CeTI-SC/STI
Biblioteca Digital de Teses e Dissertações da USP. Copyright © 2001-2024. Todos os direitos reservados.