• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Doctoral Thesis
DOI
https://doi.org/10.11606/T.2.2021.tde-22072022-120338
Document
Author
Full name
Renato Leite Monteiro
Institute/School/College
Knowledge Area
Date of Defense
Published
São Paulo, 2021
Supervisor
Committee
Queiroz, Rafael Mafei Rabelo (President)
Antonialli, Dennys Marcelo
Doneda, Danilo Cesar Maganhoto
Mendes, Laura Schertel Ferreira
Mulholland, Caitlin Sampaio
Wimmer, Miriam
Title in Portuguese
Desafios para a efetivação do direito à explicação na Lei Geral de Proteção de Dados do Brasil
Keywords in Portuguese
Agentes inteligentes (regulação)
Direito à informação
Direito Comparado -- Brasil; Estados Unidos; Europa
Inteligência artificial (regulação)
Propriedade intelectual
Proteção de dados pessoais
Segredo industrial
Sistemas de recomendação (regulação)
Abstract in Portuguese
Decisões automatizadas cada vez mais controlam nossas vidas, gerenciadas por algoritmos, cujos resultados podem ter um impacto significativo sobre os cidadãos. Todavia, a maior presença dessas decisões no cotidiano é acompanhada de pouca transparência com relação ao seu funcionamento o que torna mais complexa a identificação de práticas abusivas, discriminatórias ou, ainda, monopolísticas, que podem causar impactos nos planos individual e coletivo. Para mitigar tais efeitos, legislações nacionais e internacionais de proteção de dados tentam assegurar os direitos à transparência, à explicação e ao não estar sujeito a decisões automatizadas. A presente pesquisa realizou uma análise dos aspectos jurídicos da proteção de dados pessoais no Brasil e analisou, mais especificamente, a existência de um direito à explicação no contexto de decisões automatizadas, assim como os desafios acerca da sua implementação e execução. A principal hipótese desta pesquisa é que existe um direito à explicação no contexto de decisões automatizadas orientadas por algoritmos. Todavia, ainda é incerto como, na prática, instrumentalizar tal direito, levando em consideração: (i) a complexidade de sistemas algorítmicos, quase que opacos por natureza, principalmente nos que se valem de aprendizado de máquina para tomar suas decisões; (ii) os limites impostos pela própria legislação, como segredo de negócio e propriedade intelectual; e (iii) limitações cognitivas podem dificultar a compreensão de informações fornecidas. O objetivo deste trabalho é propor e colaborar com o desenvolvimento de elementos, instrumentos e critérios sob um viés técnicojurídico que possam colaborar para explicações efetivas e úteis que permitam coibir práticas discriminatórias, abusivas e desproporcionais, nos planos individual e coletivo.
Title in English
Challenges for the effectiveness of the right to explanation in the General Data Protection Law of Brazil
Keywords in English
Algorithms
Automated decisions
Explanation
Governance
Personal data
Regulation
Abstract in English
Automated decisions increasingly control our lives, managed by algorithms, whose results can have a significant impact on citizens. However, the increased presence of these decisions in everyday life is accompanied by little transparency regarding their operation - which makes it more complex to identify abusive, discriminatory or even monopolistic practices, which can have impacts on the individual and collective levels. To mitigate these effects, national and international data protection legislation attempts to ensure the rights to transparency, explanation, and not being subject to automated decisions. This research conducted an analysis of the legal aspects of protection of personal data in Brazil and analyzed, more specifically, the existence of a right to explanation in the context of automated decisions, as well as the challenges about its implementation and enforcement. The main hypothesis of this research is that a right to explanation exists in the context of automated algorithm-driven decisions. However, it is still uncertain how, in practice, to instrumentalize such a right, taking into consideration: (i) the complexity of algorithmic systems, almost opaque by nature, especially in those that rely on machine learning to make their decisions; (ii) the limits imposed by the legislation itself, such as trade secrets and intellectual property; and (iii) cognitive limitations may hinder the understanding of information provided. The objective of this paper is to propose and collaborate with the development of elements, instruments, and criteria from a technical-legal standpoint that may contribute to effective and useful explanations to curb discriminatory, abusive, and disproportionate practices at the individual and collective levels.
 
WARNING - Viewing this document is conditioned on your acceptance of the following terms of use:
This document is only for private use for research and teaching activities. Reproduction for commercial use is forbidden. This rights cover the whole data about this document as well as its contents. Any uses or copies of this document in whole or in part must include the author's name.
8106861DIO.pdf (3.63 Mbytes)
Publishing Date
2023-01-05
 
WARNING: Learn what derived works are clicking here.
All rights of the thesis/dissertation are from the authors
CeTI-SC/STI
Digital Library of Theses and Dissertations of USP. Copyright © 2001-2024. All rights reserved.