• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Mémoire de Maîtrise
DOI
https://doi.org/10.11606/D.3.2020.tde-31032021-163248
Document
Auteur
Nom complet
Lucas Francisco Amaral Orosco Pellicer
Adresse Mail
Unité de l'USP
Domain de Connaissance
Date de Soutenance
Editeur
São Paulo, 2020
Directeur
Jury
Pait, Felipe Miguel (Président)
Fernandes Neto, Fernando
Verri, Filipe Alves Neto
Titre en portugais
Otimização de hiperparâmetros de modelos machine learning com BarySearch.
Mots-clés en portugais
Aprendizado computacional
Computação evolutiva
Hibridização
Resumé en portugais
Obter bons desempenhos de modelos de aprendizado de máquina geralmente requer que os hiperparâmetros sejam ajustados. Entretanto, é complicado encontrar uma função matemática bem definida entre os valores do hiperparâmetro e o desempenho do modelo. A coleta de valores de desempenho do modelo é cara e ainda o comportamento das funções de desempenho tende a ser imprevisível, com muitas regiões de oscilação ou mesmo regiões descontínuas. Além disso os hiperparâmetros podem ser contínuos, discretos, categóricos ou condicionais, o que torna o problema de ajuste de hiperparâmetros complexo. Muitas técnicas foram desenvolvidas para solucionar esse problema. Neste trabalho, é apresentada a técnica BarySearch: um método livre de derivação com baixo custo computacional. Essa técnica apresenta um bom compromisso entre resultado e esforço de execução. O BarySearch utiliza do método do baricentro já utilizado em sintonização de controladores. O método apresenta características de convergências interessantes e pode comportar similar a um gradiente descendente ou métodos evolucionários sob suposições razoáveis.
Titre en anglais
Hyperparameter optimization of macnhine learning models with BarySearch.
Mots-clés en anglais
Hybridization
Hyperparameters
Machine learning
Optimization
Searching methods
Resumé en anglais
Obtaining good models in machine learning applications often requires hyperparameters to be tuned. However, it is rarely possible to find a well-defined mathematical relationship between the values of the hyperparameters and the performance of the model. Performance evaluation is computationally expensive, the behavior of the objective function tends to be unpredictable and oscillatory, and hyperparameters may not be continuous, which makes the tuning process a challenging optimization problem. Many optimization techniques have been developed to solve this complicated problem. In this work, we present the BarySearch technique: a derivative-free optimization technique with a low computational cost. This technique exhibits a good compromise between performance and execution effort. BarySearch uses the barycenter method, already used in some controller optimization techniques. The method has interesting properties in terms of convergence and may behave in a manner similar to the descending gradient or evolutionary methods under reasonable assumptions.
 
AVERTISSEMENT - Regarde ce document est soumise à votre acceptation des conditions d'utilisation suivantes:
Ce document est uniquement à des fins privées pour la recherche et l'enseignement. Reproduction à des fins commerciales est interdite. Cette droits couvrent l'ensemble des données sur ce document ainsi que son contenu. Toute utilisation ou de copie de ce document, en totalité ou en partie, doit inclure le nom de l'auteur.
Date de Publication
2021-04-01
 
AVERTISSEMENT: Apprenez ce que sont des œvres dérivées cliquant ici.
Tous droits de la thèse/dissertation appartiennent aux auteurs
CeTI-SC/STI
Bibliothèque Numérique de Thèses et Mémoires de l'USP. Copyright © 2001-2024. Tous droits réservés.