• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Mémoire de Maîtrise
DOI
https://doi.org/10.11606/D.3.2020.tde-22012021-130945
Document
Auteur
Nom complet
Rodrigo Monteiro de Aquino
Adresse Mail
Unité de l'USP
Domain de Connaissance
Date de Soutenance
Editeur
São Paulo, 2020
Directeur
Jury
Cozman, Fabio Gagliardi (Président)
Ferreira, Thiago Castro
Júnior, Etienne Américo Cartolano
Titre en anglais
Natural language explanations of classifier behavior.
Mots-clés en anglais
Interpretability
Machine learning
Transparency
Resumé en anglais
As machine learning models are increasingly used in a wide range of applications, there is growing concern about the challenges involved in understanding their predictions. The field of interpretability/explainability of artificial intelligences has developed several approaches and tools that aim at improving the understanding of such systems. These tools tend to focus on the knowledgeable data scientist as their main user. The tools usually produce plots, charts or another graphical representations (such as superposition of color on an image or text); thus the user must have some technical background so as to consume the information. This work developed techniques that generate a textual explanation for the internal behavior of a given classifier, aiming at users of machine learning with limited technical proficiency. A package for textual explanation generation, called NaLax, was built and tested with users. Preliminary results were published and presented at the IEEE International Conference of Artificial Intelligence and Knowledge Engineering (AIKE) in 2019.
Titre en portugais
Explicações em linguagem natural sobre o comportamento de classificadores.
Mots-clés en portugais
Aprendizado computacional
Interpretabilidade
Transparência
Resumé en portugais
Enquanto modelos de aprendizado estatístico avançam em um número cada vez maior de aplicações reais, tem-se percebido que o entendimento das predições apresentadas por estes modelos e bastante desafiador. O campo de estudo focado em interpretabilidade / explicabilidade de inteligências artificiais tem desenvolvido diversas abordagens e ferramentas para melhorar o entendimento desses sistemas. Tais ferramentas tendem a ser direcionadas a cientistas de dados com conhecimento técnico. Os resultados obtidos a partir delas podem ser tabelas, gráficos ou outra representação gráfica (como superposição de cores em um texto, por exemplo); desta maneira, o usuário necessita de conhecimento técnico prévio para o consumo desta informação. Neste trabalho são implementadas técnicas que geram explicações textuais sobre o funcionamento interno de um dado classificador, focando em usuários com menor proeficiência técnica a respeito dos recursos de aprendizado de máquinas. Um pacote de geração de explicações textuais, chamado NaLax, foi construído e testado do usuários. Resultados preliminares foram publicados e apresentados na IEEE International Conference of Artificial Intelligence and Knowledge Engineering (AIKE) em 2019.
 
AVERTISSEMENT - Regarde ce document est soumise à votre acceptation des conditions d'utilisation suivantes:
Ce document est uniquement à des fins privées pour la recherche et l'enseignement. Reproduction à des fins commerciales est interdite. Cette droits couvrent l'ensemble des données sur ce document ainsi que son contenu. Toute utilisation ou de copie de ce document, en totalité ou en partie, doit inclure le nom de l'auteur.
Date de Publication
2021-02-02
 
AVERTISSEMENT: Apprenez ce que sont des œvres dérivées cliquant ici.
Tous droits de la thèse/dissertation appartiennent aux auteurs
CeTI-SC/STI
Bibliothèque Numérique de Thèses et Mémoires de l'USP. Copyright © 2001-2024. Tous droits réservés.